通过使用 Weight Standardization (WS) 和 Batch-Channel Normalization (BCN),能够将 Batch Normalization(BN)中的两个成功因素引入 micro-batch training 中,从而为计算机视觉任务中不可避免的 micro-batch 训练提供有效的技术支持。通过验证在包括图像分类,目标检测,实例分割,视频识别和语义分割等全面的计算机视觉任务中,WS 和 BCN 均显著改善了 micro-batch 训练,甚至能够与大 batch 训练时的 BN 相媲美或超越。
Mar, 2019
本文提出了组归一化(GN)作为批量归一化(BN)的一种简单替代方案,GN 可解决 BN 在小批量大小下估计错误的问题,稳定性高且可应用于多种计算机视觉任务,如目标检测和图像分割。
Mar, 2018
介绍了一种新的归一化层 Batch Layer Normalization(BLN),可以在深度神经网络中减少内部协变量偏移问题,通过适应性的权衡 mini-batch 和特征标准化,并且具有比批归一化和层归一化更快的收敛速度。
Sep, 2022
本文旨在通过实证研究向更好地理解批归一化的原理和机制迈出一步,证明批归一化主要实现了更大学习率的训练,这是更快收敛和更好泛化的原因。
Jun, 2018
本文提出一种称为上下文归一化的新的归一化技术,用于图像数据。这种方法基于每个样本的特征调整特征的缩放,通过使数据值适应目标任务的上下文来提高模型的收敛速度和性能。在各种数据集上展示了上下文归一化的有效性,并将其性能与其他标准归一化技术进行了比较。
Mar, 2023
批量归一化是一种无监督的学习技术,它适应了深度神经网络的样条分区来匹配数据,缩小了训练样本和决策边界之间的边距,从而减少了过拟合,提高了泛化性能。
该研究使用 Fisher 核的角度探索 Batch Normalization 的优化,提出了一种新的 Mixture Normalization 方法,通过 CIFAR-10 和 CIFAR-100 实验验证能够有效加速深度神经网络模型的训练
使用 Group Normalization 作为批量归一化(Batch Normalization)的替代方法来解决其在深度学习模型中所面临的严重挑战,具有与或提高分类准确率的可比性,而且可以自然地从预训练阶段转移到微调阶段。
Apr, 2024
本文提出一种新的归一化方法,即移动平均批量归一化(MABN),可以在小批量情况下完全恢复基本 BN 的性能,并且在推理过程中不需要引入任何额外的非线性操作,此方法通过理论分析和实验演示了其有效性。
Jan, 2020
本文提出了一种称为 Batch Kalman Normalization(BKN)的新型规范化方法,通过考虑其前面所有层的分布来估计某个层的统计信息来改善和加速训练深度神经网络,特别是在微批处理的情况下,实现了更稳定的训练和更快的收敛速度。
Feb, 2018