Mar, 2018
规范化重要性:深度神经网络中高效准确的规范化方法
Norm matters: efficient and accurate normalization schemes in deep
networks
TL;DR本研究提出了一种新的对归一化方法和权值衰减的目的和功能的视角,并建议了几种常用L2批归一化的替代方案,包括L1和L∞范数中的归一化,以提高计算和内存效率,并且在低精度实现中大幅提高了数值稳定性,并且还提出了一种改进重要性重归一化的方法,可以提高其在大规模任务上的性能。