ICMLJun, 2020

使用标准化层训练的 ReLU 神经网络的优化理论

TL;DR本文研究了引入规范化层对神经网络的全局收敛速度和优化效果的影响,证明了在引入 Weight Normalization 后,具有 ReLU 激活函数的两层神经网络可以加速收敛。