Nov, 2019
Filter Response Normalization层:消除深度神经网络训练中的批次依赖性
Filter Response Normalization Layer: Eliminating Batch Dependence in the
Training of Deep Neural Networks
TL;DR本文提出了Filter Response Normalization(FRN)层,一种归一化和激活函数的新型组合,可以作为其他归一化和激活函数的替代品;该方法在各种情况下都优于BN和其他替代品,对于具有大型mini-batch的Imagenet分类使用InceptionV3和ResnetV2-50架构,FRN层比BN的top-1验证精度增加约0.7-1.0%;对于小型mini-batch,它比GN的性能增强超过1%;对于COCO数据集上的目标检测问题,FRN层在所有批处理大小各个方面都优于其他方法0.3-0.5%。