本文介绍了一种基于 Riemann 流形的批量归一化算法,利用 Riemann 流形上的几何操作和结构化矩阵变换进行设计,提出了一种新的流形约束梯度下降算法,在三个不同的数据类型上进行实验证明其可以提高分类性能和鲁棒性。
Sep, 2019
本文在李群上建立了一个统一的黎曼均值归一化 (RBN) 技术框架,理论上保证了控制黎曼均值和方差;在实验中,我们针对对称正定流形展示了该方法的有效性,应用于雷达识别、人类动作识别和脑电图分类。
Mar, 2024
本文旨在通过实证研究向更好地理解批归一化的原理和机制迈出一步,证明批归一化主要实现了更大学习率的训练,这是更快收敛和更好泛化的原因。
Jun, 2018
批量归一化是一种无监督的学习技术,它适应了深度神经网络的样条分区来匹配数据,缩小了训练样本和决策边界之间的边距,从而减少了过拟合,提高了泛化性能。
Sep, 2022
本文通过凸优化的视角分析 Batch Normalization,提出了一个基于凸对偶的解析框架,可以精确地描述用 Batch Normalization 训练的带有权重衰减的 ReLU 网络,并证明在高维和过参数化情况下,理论上可以获得一些简单的解析的最优层权重和可训练的凸约束优化问题,并发现梯度下降给标准的非凸 BN 网络提供了算法偏差效应,通过我们的方法可以将这种隐式正则化显性编码到凸目标中,实验结果表明该方法可以模拟和显著提高标准 BN 网络的性能。
Mar, 2021
该研究使用 Fisher 核的角度探索 Batch Normalization 的优化,提出了一种新的 Mixture Normalization 方法,通过 CIFAR-10 和 CIFAR-100 实验验证能够有效加速深度神经网络模型的训练
本文提出了一项引理来解释多种神经网络中的归一化方法,从而能够在统一的框架下解释归一化的概念。我们的结论是,这些归一化方法能够让权重的范数增大,可能会造成攻击性漏洞的风险,同时,证明这些归一化方法可以帮助稳定网络训练。
Jun, 2020
通过对神经网络的基本结构进行分析,我们发现批量标准化通过人口标准化和 gamma 衰减作为显式正则化来实现隐式正则化,可以提高训练收敛性和泛化性,同时提供了学习动力学和正则化的学习方法,这一理论与实验证明了在卷积神经网络中批量标准化和上述分析具有相同的正则化特性。
Sep, 2018
介绍了一种新的归一化层 Batch Layer Normalization(BLN),可以在深度神经网络中减少内部协变量偏移问题,通过适应性的权衡 mini-batch 和特征标准化,并且具有比批归一化和层归一化更快的收敛速度。
提出了一种使用广义偏差测量的 Batch Normalization(BN)变换,与传统的 BN 相比,它通过使用风险理论和量化风险管理的最新概念,加速神经网络训练的收敛速度,在结合 ReLU 非线性时,可以自然选择偏差测量和统计,实验证明在保持错误率方面与传统 BN 相比有所提高,总体而言,为设计选择提供了一个更灵活的 BN 变换。
Dec, 2018