通过对神经网络的基本结构进行分析,我们发现批量标准化通过人口标准化和 gamma 衰减作为显式正则化来实现隐式正则化,可以提高训练收敛性和泛化性,同时提供了学习动力学和正则化的学习方法,这一理论与实验证明了在卷积神经网络中批量标准化和上述分析具有相同的正则化特性。
Sep, 2018
该论文介绍了一种名为 RegBN 的新型多模态数据归一化方法,使用 Frobenius 正则化参数来解决异质多模态数据的一些副作用和依赖关系问题。RegBN 在多个研究领域的八个数据库中得到验证,支持各种模态的多模态神经网络的有效归一化。
Oct, 2023
批量归一化是一种无监督的学习技术,它适应了深度神经网络的样条分区来匹配数据,缩小了训练样本和决策边界之间的边距,从而减少了过拟合,提高了泛化性能。
Sep, 2022
本研究通过对输入扰动的敏感性来研究基于深度学习的泛化能力,提出了一种简单而有效的正则化方法 —— 谱范数正则化,试验结果证实其比其他基准方法更具有泛化性能。
May, 2017
本文提出一种名为谱归一化的新颖权重归一化技术,用于稳定生成对抗网络的鉴别器训练。该方法计算轻便,易于应用于现有的实现,并通过在 CIFAR10、STL-10 和 ILSVRC2012 数据集上的实验验证了其有效性,确认谱归一化 GANs 能够生成更好或同质量的图像相对于之前的训练稳定技术。
Feb, 2018
本研究旨在通过使用谱规范化方法,为深度神经网络在对抗性环境下的训练提供一种有效的正则化策略,以解决其在输入微小的对抗性扰动下缺乏鲁棒性的问题。同时,我们将边界损失延伸到对抗性环境,并限制了多个梯度攻击方案下深度神经网络的泛化误差。
Nov, 2018
本文旨在通过实证研究向更好地理解批归一化的原理和机制迈出一步,证明批归一化主要实现了更大学习率的训练,这是更快收敛和更好泛化的原因。
Jun, 2018
本文提出了一种新的神经网络训练方法:Iterative Normalization,通过牛顿迭代实现高效且无矩阵分解的白化,同时引入 Stochastic Normalization Disturbance,增加实验的稳定性,实验表明 IterNorm 具有更好的优化与泛化折衷。
Apr, 2019
本研究提出了一种新的批标准化方法(PBN),通过在空间维度上将批次的特征图拆分为不重叠的小块来独立归一化每个小块,从而利用图像局部块之间的差异来增强模型参数的鲁棒性,可以解决计算机视觉任务中,跨域数据的鲁棒性问题,包括分类,目标检测,实例检索和语义分割等任务。
Apr, 2023
本文提出了一种新的归一化方法(SAN),并通过大量实验证明,与现有的方法相比,SAN 能够在 GAN 的训练中取得更好的效果。SAN 考虑了稀疏性,并且在 ReLU 激活的卷积网络中特别有效,并且在图像到图像翻译任务中表现出更好的性能,并且能够在较少的训练时期内以及较小的容量网络中发挥作用,而且几乎不需要计算开销。
Mar, 2021