BriefGPT.xyz
Sep, 2018
批量归一化中正则化的理解
Understanding Regularization in Batch Normalization
HTML
PDF
Ping Luo, Xinjiang Wang, Wenqi Shao, Zhanglin Peng
TL;DR
通过对神经网络的基本结构进行分析,我们发现批量标准化通过人口标准化和 gamma衰减作为显式正则化来实现隐式正则化,可以提高训练收敛性和泛化性,同时提供了学习动力学和正则化的学习方法,这一理论与实验证明了在卷积神经网络中批量标准化和上述分析具有相同的正则化特性。
Abstract
batch normalization
(BN) makes output of hidden neuron had zero mean and unit variance, improving
convergence
and
generalization
when trai
→