缓解宽神经网络病态尖锐度的规范化方法
该论文讨论了深度神经网络训练中的内部协变量漂移问题,并通过在模型架构内加入标准化方法及在每个训练mini-batch的操作中进行标准化,解决了此问题,在Image Classification上取得了优秀的表现。
Feb, 2015
介绍了一种用于解决深度神经网络训练中的内部协变量漂移问题的非自适应规范化技术——Normalization Propagation,其利用一种数据独立的参数估计,通过预先规范化激活函数前的数据分布特征,实现了批标准化无法实现的单个Batch的训练,进一步减少了运算复杂性。
Mar, 2016
通过对神经网络的基本结构进行分析,我们发现批量标准化通过人口标准化和 gamma衰减作为显式正则化来实现隐式正则化,可以提高训练收敛性和泛化性,同时提供了学习动力学和正则化的学习方法,这一理论与实验证明了在卷积神经网络中批量标准化和上述分析具有相同的正则化特性。
Sep, 2018
本文探讨了神经网络优化中常见的批量标准化方法,并提出了四种改善方法,包括基于推理标准化统计的推理现有实例的方法、小批量大小下有效的 Ghost Batch Normalization 正则化方法、权重衰减正则化对 scaling 和 shifting 参数 gamma 和 beta 的影响、并结合批量标准化和分组标准化的方法解决小批量规模的问题。这些方法可以提高神经网络在六个数据集上的性能表现。
Jun, 2019
通过初始化时将剩余分支与跳过连接相比,批归一化可以缩小深度神经网络的剩余分支,从而通过将归一化因子放在网络深度的平方根上,确保在训练早期,深度网络中的标准化剩余块计算的函数接近于恒等函数,这是批归一化可以显着提高残差网络最大可训练深度的关键原因之一,并且已经关键地促成了深度残差网络在广泛的基准测试上的实证成功。同时,我们还提出了一种不需要归一化即可训练深度残差网络的简单初始化方案,并且对残差网络进行了详细的实证研究,阐明了虽然批归一化网络可以使用更高的学习率进行训练,但这种影响只有在特定计算范围内才是有利的,并且在批大小较小时几乎没有任何好处。
Feb, 2020
通过数学分析和实验证明,在深度网络中引入标准化层(例如批量标准化,层标准化)有利于优化并促进泛化,同时对于包含标准化的一类神经网络,伴随权值衰减的标准化可以鼓励梯度下降到达稳定边缘,并且对于这种情况,可以确定梯度下降的流动轨迹。
Jun, 2022
该论文探讨了深度神经网络中的Gram矩阵结构,在多层感知器中给出了层归一化与激活层一起导致Gram矩阵趋向等距的证明,进一步阐明了高阶Hermite系数在此方面的重要性。
May, 2023
本文介绍了一种新的在频域归一化特征图的有效方法 - 频谱批量归一化(SBN),通过实验证明该方法可以避免特征图在初始化时和整个训练过程中的爆炸问题,使得深度神经网络的表现得到了显著提高。
Jun, 2023