跨迭代批量归一化
本文提出一种新的归一化方法,即移动平均批量归一化(MABN),可以在小批量情况下完全恢复基本 BN 的性能,并且在推理过程中不需要引入任何额外的非线性操作,此方法通过理论分析和实验演示了其有效性。
Jan, 2020
本文提出了一种新的神经网络训练方法:Iterative Normalization,通过牛顿迭代实现高效且无矩阵分解的白化,同时引入 Stochastic Normalization Disturbance,增加实验的稳定性,实验表明 IterNorm 具有更好的优化与泛化折衷。
Apr, 2019
通过使用 EvalNorm,本文解决了小 minibatch 训练时 batch normalization 性能下降的问题,而且 EvalNorm 实现方便,可以进一步提高模型性能。
Apr, 2019
本文提出了一种称为 Batch Kalman Normalization(BKN)的新型规范化方法,通过考虑其前面所有层的分布来估计某个层的统计信息来改善和加速训练深度神经网络,特别是在微批处理的情况下,实现了更稳定的训练和更快的收敛速度。
Feb, 2018
本研究提出了一种名为 SWBN 的针对深度神经网络的新算法,该算法使用随机白化技术渐进估计白化矩阵,相较于 IterNorm 算法实现了更快的收敛和更好的泛化效果。在常规(大批量)图像分类和少样本分类任务上,经过综合实验和对比,显示出了 SWBN 方法的有效性。
Jun, 2021
该研究提出了一种新的规范化技术称为批次通道规范化(BCN),它结合了批次归一化(BN)和层归一化(LN)的优势,并可以应用于计算机视觉领域中的各种应用。
Dec, 2023
本文探讨了神经网络优化中常见的批量标准化方法,并提出了四种改善方法,包括基于推理标准化统计的推理现有实例的方法、小批量大小下有效的 Ghost Batch Normalization 正则化方法、权重衰减正则化对 scaling 和 shifting 参数 gamma 和 beta 的影响、并结合批量标准化和分组标准化的方法解决小批量规模的问题。这些方法可以提高神经网络在六个数据集上的性能表现。
Jun, 2019
介绍了一种新的归一化层 Batch Layer Normalization(BLN),可以在深度神经网络中减少内部协变量偏移问题,通过适应性的权衡 mini-batch 和特征标准化,并且具有比批归一化和层归一化更快的收敛速度。
Sep, 2022
本文提出了组归一化(GN)作为批量归一化(BN)的一种简单替代方案,GN 可解决 BN 在小批量大小下估计错误的问题,稳定性高且可应用于多种计算机视觉任务,如目标检测和图像分割。
Mar, 2018
本文提出了一种称为 Batch Renormalization 的扩展方法,在训练深度学习模型时,在 minibatch 太小或不包含独立样本时,解决模型层输入依赖于 minibatch 所有实例和训练与推理之间存在的差异,同时保持初始化和训练效率等方面的优点。
Feb, 2017