本文提出一种基于层归一化的深度神经网络训练新方法,能够有效稳定循环神经网络中的隐藏状态动态,其训练时间较之前的技术有大幅度降低。
Jul, 2016
本文旨在通过实证研究向更好地理解批归一化的原理和机制迈出一步,证明批归一化主要实现了更大学习率的训练,这是更快收敛和更好泛化的原因。
Jun, 2018
该论文讨论了深度神经网络训练中的内部协变量漂移问题,并通过在模型架构内加入标准化方法及在每个训练 mini-batch 的操作中进行标准化,解决了此问题,在 Image Classification 上取得了优秀的表现。
Feb, 2015
本文探讨了批量归一化(BatchNorm)对深度神经网络(DNN)训练的影响及原因,发现 BatchNorm 的成功并不在于控制层输入分布的稳定性,而是在于它让优化的过程变得更加平滑,从而使梯度更加稳定和可预测,加快了训练速度。
May, 2018
本文探讨了神经网络优化中常见的批量标准化方法,并提出了四种改善方法,包括基于推理标准化统计的推理现有实例的方法、小批量大小下有效的 Ghost Batch Normalization 正则化方法、权重衰减正则化对 scaling 和 shifting 参数 gamma 和 beta 的影响、并结合批量标准化和分组标准化的方法解决小批量规模的问题。这些方法可以提高神经网络在六个数据集上的性能表现。
Jun, 2019
介绍了一种用于解决深度神经网络训练中的内部协变量漂移问题的非自适应规范化技术 ——Normalization Propagation,其利用一种数据独立的参数估计,通过预先规范化激活函数前的数据分布特征,实现了批标准化无法实现的单个 Batch 的训练,进一步减少了运算复杂性。
Mar, 2016
本文提出了一项引理来解释多种神经网络中的归一化方法,从而能够在统一的框架下解释归一化的概念。我们的结论是,这些归一化方法能够让权重的范数增大,可能会造成攻击性漏洞的风险,同时,证明这些归一化方法可以帮助稳定网络训练。
Jun, 2020
在这项研究中,我们设计了一种带有线性激活函数和批归一化的多层感知机模型,通过 Weingarten 微积分方法从理论上证明了其正向信号传播特性的精确表征,并证明了在线性独立的输入样本情况下渐近地保持梯度有界的特性。同时,我们还提出了一种激活函数塑形方案,能够在某些非线性激活函数下实现类似的特性。
Oct, 2023
本文提出一种归一化技术 —— 分裂归一化法,包括批归一化和层归一化,并发现在使用这种技术时结合对激活函数的稀疏正则化可以提高卷积神经网络和循环神经网络的准确性。
Nov, 2016
研究表明,批量标准化在深度神经网络的训练中可以降低参数更新次数,但会导致对小型对抗性输入扰动和噪音的鲁棒性降低,同时使用权重衰减可以消除其对输入尺寸的影响。
May, 2019