深度表示学习的可切换美白
本文提出可切换标准化(SN),通过学习为深度神经网络的不同标准化层选择不同的标准化器来解决学习标准化问题。 SN 在计算统计量(均值和方差)时使用三个不同的范围,包括通道,层和批处理,并通过学习它们的重要性权重来在它们之间切换,从而能适应各种网络架构和任务,并且不会受到宽范围批量大小的影响,具有很强的稳健性。 SN 不需要敏感的超参数搜索,而且在各种挑战性的基准测试中具有良好的性能,例如 ImageNet,COCO,CityScapes,ADE20K 和 Kinetics。作者也进行了分析,希望 SN 能够有助于使用和理解深度学习中的标准化技术。
Jun, 2018
我们提出了可切换归一化(SN)来解决深度神经网络中学习正常化的问题。它有三个不同的范围来计算统计量(均值和方差),包括通道、层和 mini-batch。SN 通过学习它们的重要性权重来在它们之间切换。它适应各种网络架构和任务,对各种具有挑战性的基准如 ImageNet 表现非常出色,并且没有敏感的超参数。
Jul, 2019
本研究提出了一种名为 SWBN 的针对深度神经网络的新算法,该算法使用随机白化技术渐进估计白化矩阵,相较于 IterNorm 算法实现了更快的收敛和更好的泛化效果。在常规(大批量)图像分类和少样本分类任务上,经过综合实验和对比,显示出了 SWBN 方法的有效性。
Jun, 2021
本文介绍了一种名为 Group Whitening 的新型批量归一化方法,该方法结合了白化方法和 Group Normalization 的优点,避免了普通批量归一化的缺点,并且从模型表征容量的角度,分析了批归一化的表征能力与批大小(组数)的关系,通过在 ResNet 和 ResNeXt 上的实验,验证了 Group Whitening 在不同架构中的性能优势。
Sep, 2020
本文研究批量白化(Batch Whitening),提供了一个可用于不同场景下的批量白化算法设计及比较框架,并通过 ImageNet 数据集分类和生成对抗网络训练的应用实践验证了所提出算法的有效性和稳定性。
Mar, 2020
探究神经网络中概念随层数变化的编码方式,引入概念白化机制(CW)对网络的中间层进行调整以更好地理解计算过程。实验证明,CW 可以提供更清晰的概念层次,是批量归一化层的替代方案。
Feb, 2020
本研究提出了一种稀疏切换归一化(SSN)方法,通过 SparsestMax 算法将学习的重要性约束为稀疏条件,保证每个规范化层只选择一个归一化器,从而提高了深度学习的性能,并在 ImageNet,Cityscapes,ADE20K 和 Kinetics 等数据集上得到了验证 。
Mar, 2019
本文提出了一种新的神经网络训练方法:Iterative Normalization,通过牛顿迭代实现高效且无矩阵分解的白化,同时引入 Stochastic Normalization Disturbance,增加实验的稳定性,实验表明 IterNorm 具有更好的优化与泛化折衷。
Apr, 2019