本文研究了对抗训练在提高图像分类器对白盒攻击的鲁棒性中的有效性,以及在黑盒攻击下的细微差别,并定义了鲁棒性增益的度量指标来衡量其效果。研究表明,尽管对抗训练是提高白盒场景下的鲁棒性的有效方法,但对于更现实的基于决策的黑盒攻击,则可能无法提供如此良好的鲁棒性增益。此外,即使是最小的扰动白盒攻击也可以比常规攻击更快地针对对抗训练过的神经网络收敛。
Jul, 2021
本文研究了通过对抗性样本训练神经网络的鲁棒性问题,提出了通过实现加权损失对抗扰动机制进行对抗性训练的方案,从而解决了加权损失在以往对抗性训练中的不足。
Apr, 2020
本文提出了一种简单而有效的基于迁移学习的对抗性训练策略,该策略将对抗样本的负面影响与模型的标准性能分离开来,引入了一种训练友好的对抗攻击算法,同时保持了模型对干净数据的标准性能,从而提高了模型的鲁棒性。
Apr, 2022
本文介绍了对抗性训练及其在构建鲁棒模型方面的应用,提出了新型白盒和黑盒攻击,即灰盒对抗攻击,提出了一种新颖的模型鲁棒性评估方法,并提出了一种新型的对抗性训练:灰盒对抗训练,其使用模型的中间版本来引导敌手生成更加有效的对抗样本,实验证明此方面的成果优于传统方法。
Aug, 2018
该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021
本文提出了一种并发对抗训练和权重修剪的框架,可以在保持对抗鲁棒性的情况下实现模型压缩,同时解决对抗训练的困境,并进一步研究了关于传统设置下的权重修剪的两个假设。
Mar, 2019
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017
通过提出综合强健的(HR)训练程序,理论和实验证明了其在对抗错误损失方面具有 SOTA 性能,并克服了在敌对训练中普遍存在的过度拟合问题。
Mar, 2023
这篇研究论文介绍了一种新的对抗训练方法,通过根据自然数据点到分类边界的远近来赋予不同的权重,以提高模型的鲁棒性和准确性。
Oct, 2020
本文详细描述了对高斯特征下的线性回归算法进行对抗训练的作用,给出了任何算法能够实现的准确度之间的基本权衡,并阐明了现代迷你最大对抗训练方法在高维度情况下达到的标准 / 稳健准确度和相应的权衡。
Feb, 2020