自然鲁棒性动态批归一化统计更新
本研究中,我们将深度神经网络中的几项统计学指标变换为适应不同数据集,并通过少量表示样本的统计估计实现批量归一化统计量的调整与适应,从而在多种基准数据集上得到了更好的数据集迁移性和鲁棒性表现。
Oct, 2020
本研究证明:大多数图像较差的基准测试不能很好地衡量图像识别模型在许多场景下的稳健性,因此提出了一种基于非监督在线适应的方法,通过更改模型激活的统计特征来提高模型的稳健性。改进后的模型可在 ImageNet-C 数据集上取得更好的表现。
Jun, 2020
本文提出了两种高 / 低频鲁棒性混合的专家模型以及一种最小化卷积特征图总变差 (TV) 的正则化方法,成功应用于诸如 ImageNet-C 以及汽车数据集等多种实际环境的图像分类和目标检测任务,同时提升了在受损图像方面的鲁棒性。
Mar, 2021
少样本微调的扩散模型存在训练过程中的图像质量退化现象,通过使用贝叶斯神经网络来解决这一问题,可以有效改善生成图像的质量和多样性。
May, 2024
本文旨在研究如何纠正使用数据增强技术训练深度神经网络时所导致的图像偏差问题,作者提出了一种辅助 BatchNorm 方法,实验结果表明,使用弱增强训练的 BatchNorm 参数可以明显提高 CIFAR-10、CIFAR-100 和 ImageNet 等常见图像分类基准测试的模型性能,同时,研究还揭示了使用不同 BatchNorm 参数所带来的精度和鲁棒性之间的基本权衡关系。
Oct, 2020
本研究提出了一种新的批标准化方法(PBN),通过在空间维度上将批次的特征图拆分为不重叠的小块来独立归一化每个小块,从而利用图像局部块之间的差异来增强模型参数的鲁棒性,可以解决计算机视觉任务中,跨域数据的鲁棒性问题,包括分类,目标检测,实例检索和语义分割等任务。
Apr, 2023
计算机视觉中,通过数据增强方式可以提高鲁棒性,但增加高斯数据增强和对抗训练等方法并不能保证所有的污染类型都能同样得到提高,因此需要使用更多样的数据增强方式来缓解这些折衷。最近提出的 AutoAugment 方法在清晰精度和鲁棒性方面均得到了最佳表现。
Jun, 2019
本研究证明 BatchNorm 在对抗攻击下表现脆弱的原因和提出了新的对抗攻击下稳健的正则化方法 RobustNorm。实验证明使用 RobustNorm 的深度神经网络在对抗环境下表现更好。
Jun, 2020
该研究论文证明,通过对图像识别模型进行简单但适当的高斯噪声和斑点噪声训练,可以使其具有更好的泛化能力和对不同类型损坏更强的鲁棒性,并结合敌对训练方法进一步提高性能。
Jan, 2020
本文提出了一种基于 alpha-BN 的测试时间适应框架 Core,通过混合源和目标统计信息来校准批次统计量以缓解域漂移并保留区分结构。实验证明我们的方法在包括图像分类和语义分割的三个主题的 12 个数据集上实现了最先进的性能。特别地,在没有任何训练的情况下,我们的 alpha-BN 改进了 28.4%至 43.9%,甚至超过了最新的源无关域自适应方法。
Oct, 2021