实例自适应对抗训练:神经网络中更好的准确性和权衡
本论文提出了一种名为 Interpolated Adversarial Training 的对抗性训练方法,它采用最近提出的基于插值的训练方法来提高对抗鲁棒性,并以 CIFAR-10 数据集为例进行了实验证明,相较传统对抗性训练方法,该方法可以在保持对抗鲁棒性的同时取得更好的泛化性能与更低的标准测试误差。
Jun, 2019
通过对敌对学习及攻击的深入探究,我们发现在敌对性训练的模型中,用微小的随机噪声扰动部分攻击样本能够破坏其误导性预测,为此我们提出了一种有效的防御方法,是通过制造更加有效的防御扰动方法,利用敌对训练降低了地面真实的局部 Lipschitzness,同时攻击所有类别,将误导的预测转换为正确的预测,这种方法在经验实验证明有效。
Jun, 2021
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
针对对抗样本的防御,如对抗训练,通常针对单个干扰类型(例如小的 l∞- 噪声),对于其它类型的干扰,这些防御没有保障,甚至会增加模型的脆弱性。我们的目标是了解这种鲁棒性取舍背后的原因,并训练同时对多种扰动类型具有鲁棒性的模型。
Apr, 2019
通过对输入进行敌对扰动(即人类感知不到的人工噪音),深度神经网络容易产生错误预测。迄今为止,敌对训练已成为对抗性攻击最成功的防御方式。本文聚焦于改进敌对训练以提高对抗性强度,提出了一种新的敌对训练方法 ISEAT,它通过自适应、实例特定的方式同时平滑输入和权重损失景观以增强鲁棒性,证明与现有防御方法相比,该方法具有显著的优越性。
Mar, 2023
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
提出一种新的对抗性训练方法,称为增量边界对抗训练 (Increasing-Margin Adversarial Training),该方法通过生成最佳对抗性训练样本来提高鲁棒性,同时保持准确性,在医学图像分类和分割应用中实现了准确性和鲁棒性的平衡。
May, 2020