采用傅里叶域检测损坏类型和更新 BatchNorm 统计信息的统一框架,可提高任何现成模型的损坏准确性,并进一步改善先进的稳健模型的准确性。
Oct, 2023
本研究证明:大多数图像较差的基准测试不能很好地衡量图像识别模型在许多场景下的稳健性,因此提出了一种基于非监督在线适应的方法,通过更改模型激活的统计特征来提高模型的稳健性。改进后的模型可在 ImageNet-C 数据集上取得更好的表现。
Jun, 2020
本研究证明 BatchNorm 在对抗攻击下表现脆弱的原因和提出了新的对抗攻击下稳健的正则化方法 RobustNorm。实验证明使用 RobustNorm 的深度神经网络在对抗环境下表现更好。
通过对特征统计数据直接进行扰动,我们提出了 Adversarial Batch Normalization (AdvBN) 方法,它是一种单一的网络层,可以在训练期间生成最差情况下的特征扰动。通过在扰动的特征分布上对神经网络进行微调,我们观察到网络对各种不可见的分布偏移,包括样式变化和图像损坏,具有更好的鲁棒性。此外,我们证明我们提出的对抗性特征扰动可以与现有的图像空间数据增强方法互补,从而实现改进性能。
Sep, 2020
本文提出了一种称为自适应批量归一化(AdaBN)的方法来提高深度神经网络的泛化能力,无需额外组件或参数,并证明其在领域适应任务和现有方法相结合时具有卓越的性能表现。
Mar, 2016
通过研究对抗训练的诊断要素,本文发现了两个有趣的性质:一是在对抗训练中批量归一化可能会阻碍网络获得强鲁棒性,而分别对训练集中的干净图片和对抗图片进行归一化可以提高鲁棒性;二是相较于传统分类任务,对抗学习对更深的网络层级有更高的需求,这一点可以通过增加网络容量来实现。
Jun, 2019
本文为评估深度神经网络在受损病理图像上的表现建立了易于使用的基准,发现了多种深度神经网络模型存在显著的精度下降和不可靠的置信度评估,并提出了一种用于将验证集替换为该基准集的新方法。
Jun, 2022
本文提出了一种基于 alpha-BN 的测试时间适应框架 Core,通过混合源和目标统计信息来校准批次统计量以缓解域漂移并保留区分结构。实验证明我们的方法在包括图像分类和语义分割的三个主题的 12 个数据集上实现了最先进的性能。特别地,在没有任何训练的情况下,我们的 alpha-BN 改进了 28.4%至 43.9%,甚至超过了最新的源无关域自适应方法。
Oct, 2021
本研究提出了一种新的批标准化方法(PBN),通过在空间维度上将批次的特征图拆分为不重叠的小块来独立归一化每个小块,从而利用图像局部块之间的差异来增强模型参数的鲁棒性,可以解决计算机视觉任务中,跨域数据的鲁棒性问题,包括分类,目标检测,实例检索和语义分割等任务。
Apr, 2023
该文章为图像分类器的稳健性建立了严格的基准测试,并提出了两个基准测试 ImageNet-C 和 ImageNet-P,用于评估分类器对常见扰动和干扰的稳健性。研究发现,从 AlexNet 分类器到 ResNet 分类器,相对污染鲁棒性几乎没有变化,而绕过的对抗性防御提供了实质性的常见干扰强度。
Mar, 2019