Nov, 2019

Filter Response Normalization 层:消除深度神经网络训练中的批次依赖性

TL;DR本文提出了 Filter Response Normalization(FRN)层,一种归一化和激活函数的新型组合,可以作为其他归一化和激活函数的替代品;该方法在各种情况下都优于 BN 和其他替代品,对于具有大型 mini-batch 的 Imagenet 分类使用 InceptionV3 和 ResnetV2-50 架构,FRN 层比 BN 的 top-1 验证精度增加约 0.7-1.0%;对于小型 mini-batch,它比 GN 的性能增强超过 1%;对于 COCO 数据集上的目标检测问题,FRN 层在所有批处理大小各个方面都优于其他方法 0.3-0.5%。