ICMLJun, 2020
使用标准化层训练的 ReLU 神经网络的优化理论
Optimization Theory for ReLU Neural Networks Trained with Normalization Layers
Yonatan Dukler, Quanquan Gu, Guido Montúfar
TL;DR本文研究了引入规范化层对神经网络的全局收敛速度和优化效果的影响,证明了在引入 Weight Normalization 后,具有 ReLU 激活函数的两层神经网络可以加速收敛。