无归一化高性能大规模图像识别
通过采用自适应梯度剪切、比例重量标准化和专门的瓶颈块等技术,本研究将 BN-Free 训练的框架扩展到二进制神经网络训练,并首次证明可以完全从 BNN 的训练和推断中去除 BN 层,而不会丧失性能。
Apr, 2021
该研究介绍了一种能够设计高效 ResNets 网络的分析工具,通过采用一种改进后的 Weight Standardization 技术,该分析工具的作用在于确保具有 ReLU 或 Swish 激活函数的信号在网络的深度方向上不发生偏移以达到在 FLOP 预算范围内与当今最先进的 EfficientNets 在 ImageNet 上的性能竞争可比性。
Jan, 2021
本文提出了组归一化(GN)作为批量归一化(BN)的一种简单替代方案,GN 可解决 BN 在小批量大小下估计错误的问题,稳定性高且可应用于多种计算机视觉任务,如目标检测和图像分割。
Mar, 2018
本文提出了一种名为 Fixup 的初始化算法来解决神经网络中的梯度消失和梯度爆炸的问题,并证明了该算法与标准的 normalization 算法在训练深层网络方面的稳定性相当。同时,该算法还能够使没有使用 normalization 的残差网络在图像分类和机器翻译方面获得最先进的性能。
Jan, 2019
本篇论文详细研究了批量归一化在训练神经网络中的作用,以及其与其他优化方法的比较,主要目的是通过改进训练过程判断是否有可能在不使用批量归一化情况下有效地训练网络。
Aug, 2020
本文提出了一种称为 Batch Renormalization 的扩展方法,在训练深度学习模型时,在 minibatch 太小或不包含独立样本时,解决模型层输入依赖于 minibatch 所有实例和训练与推理之间存在的差异,同时保持初始化和训练效率等方面的优点。
Feb, 2017
该论文讨论了深度神经网络训练中的内部协变量漂移问题,并通过在模型架构内加入标准化方法及在每个训练 mini-batch 的操作中进行标准化,解决了此问题,在 Image Classification 上取得了优秀的表现。
Feb, 2015
使用 Group Normalization 作为批量归一化(Batch Normalization)的替代方法来解决其在深度学习模型中所面临的严重挑战,具有与或提高分类准确率的可比性,而且可以自然地从预训练阶段转移到微调阶段。
Apr, 2024
本文介绍了三个与系统相关的优化方案 —— 分布式批量归一化控制每个副本批量大小、输入管道优化维持模型吞吐量和二维鼓形约减加速梯度求和 —— 将这些优化相结合,在 1024 芯片 TPU v3 Pod 上以超过 105 万张 / 秒的训练吞吐量,在 2.2 分钟内将 ResNet-50 在 ImageNet 上训练到 76.3%的准确度,且没有精度降低。
Nov, 2018
本文提出了 Filter Response Normalization(FRN)层,一种归一化和激活函数的新型组合,可以作为其他归一化和激活函数的替代品;该方法在各种情况下都优于 BN 和其他替代品,对于具有大型 mini-batch 的 Imagenet 分类使用 InceptionV3 和 ResnetV2-50 架构,FRN 层比 BN 的 top-1 验证精度增加约 0.7-1.0%;对于小型 mini-batch,它比 GN 的性能增强超过 1%;对于 COCO 数据集上的目标检测问题,FRN 层在所有批处理大小各个方面都优于其他方法 0.3-0.5%。
Nov, 2019