该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021
本篇论文阐述了对于神经网络存在攻击的情况下,如何通过对抗训练和小样本训练方法,提高模型的鲁棒性。
Dec, 2021
通过使用快速梯度符号方法(FGSM)来作为对抗样本的构造方法,使得对抗训练的代价不比标准训练更高,而且 FGSM 对抗训练与 PGD 对抗训练效果相当。最后,我们还研究了 FGSM 对抗训练的 “灾难性过拟合” 失败模式。
Jan, 2020
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017
本文研究用抽象认证来提取子输入以进行软对抗训练,提出了一个培训框架,能在约束条件下保持自然精度而不牺牲强健性,证明了软对抗性训练在对抗攻击防御方面的可行性,并提出了未来工作的范围以进一步改进该框架。
Jun, 2022
通过对敌对学习及攻击的深入探究,我们发现在敌对性训练的模型中,用微小的随机噪声扰动部分攻击样本能够破坏其误导性预测,为此我们提出了一种有效的防御方法,是通过制造更加有效的防御扰动方法,利用敌对训练降低了地面真实的局部 Lipschitzness,同时攻击所有类别,将误导的预测转换为正确的预测,这种方法在经验实验证明有效。
Jun, 2021
该研究使用一个基于样本性质筛选的简化训练方法,在保持分类结果鲁棒性不变的情况下,将医学图像和自动驾驶等领域的深度神经网络训练时间减少到原来的三分之一。
Mar, 2023
该研究论文介绍了新型对抗训练方法 ATTA,利用同一训练进程中相邻时期的模型具有高可转移性的特点,通过积累对抗扰动来增强训练模型的鲁棒性,并显著提高训练效率。相较于最先进的对抗训练方法,ATTA 在 CIFAR10 数据集上能提高 7.2% 的对抗准确性,在 MNIST 和 CIFAR10 数据集中只需 12-14 倍的训练时间就可以达到可比的模型鲁棒性。
Dec, 2019
通过提出综合强健的(HR)训练程序,理论和实验证明了其在对抗错误损失方面具有 SOTA 性能,并克服了在敌对训练中普遍存在的过度拟合问题。
本文研究了对抗训练在提高图像分类器对白盒攻击的鲁棒性中的有效性,以及在黑盒攻击下的细微差别,并定义了鲁棒性增益的度量指标来衡量其效果。研究表明,尽管对抗训练是提高白盒场景下的鲁棒性的有效方法,但对于更现实的基于决策的黑盒攻击,则可能无法提供如此良好的鲁棒性增益。此外,即使是最小的扰动白盒攻击也可以比常规攻击更快地针对对抗训练过的神经网络收敛。
Jul, 2021