基于异常值健壮的对抗训练(ORAT)是在传统健壮学习方法和最近的对抗训练方法的基础上开发的,以同时处理低质量训练数据和推理时的敌对攻击,并在三个基准数据集上展示了其有效性和鲁棒性。
Sep, 2023
本文提出了一种新的模型训练框架 - 对抗分布式训练(ADT),通过最小值最大化优化问题,训练模型来学习处理各种威胁。ADT 的有效性也在几个基准测试中得到了验证。
Feb, 2020
针对分类器的对抗训练模型中的拒绝选项,根据拒绝代价模型,提出了一种新的防御方法 —— 基于一致性预测的拒绝的对抗训练模型,实验证明在强适应性攻击中具有明显的性能优势。
May, 2023
本文提出了三种防御方法来增强对多种攻击类型的鲁棒性,包括自适应防御技术 Adaptive AT,课程式防御技术 Curriculum AT 和将 AT 与去噪生成对抗网络相结合的生成式防御技术 Generative AT,并在 UCF101 数据集上进行了实验。
Jun, 2022
该研究论文介绍了新型对抗训练方法 ATTA,利用同一训练进程中相邻时期的模型具有高可转移性的特点,通过积累对抗扰动来增强训练模型的鲁棒性,并显著提高训练效率。相较于最先进的对抗训练方法,ATTA 在 CIFAR10 数据集上能提高 7.2% 的对抗准确性,在 MNIST 和 CIFAR10 数据集中只需 12-14 倍的训练时间就可以达到可比的模型鲁棒性。
Dec, 2019
本文提出了一种最差类对抗训练(worst-class adversarial training)的新框架,利用无悔动态来解决对抗样本攻击的问题,旨在获得在最差情况下表现优异的分类器,并在同时仅牺牲少量平均鲁棒性。作者在各种数据集和网络上的实验证明了该方法超越了现有方法。
Feb, 2023
本文探讨了一种适用于分类器在对抗样本上放弃输出任何类别 (即通过放弃输出任何类别来实现对抗鲁棒性) 的情况下的对抗鲁棒性问题,提出了一种新的带有放弃选项的对抗鲁棒性目标函数,并提出了一个基于该目标函数的基准,最后提出了一种 Combined Abstention Robustness Learning (CARL) 方法来实现分类器及其应该放弃输出的输入空间的区域的联合学习。通过对 PGD 和 DeepFool 等攻击的评估,得出使用 CARL 训练的分类器比基准分类器更精确、更鲁棒、更有效。
Nov, 2019
深度神经网络容易受到对抗性噪声的攻击。为了解决这个问题,我们提出了一种通用的对抗训练框架来获得稳健的特征表达,通过非对称负对比度和反向注意力来推动不同类别的特征在特征空间中远离,并通过线性分类器参数对特征进行加权以获得类别感知的特征并将相同类别的特征相互靠近。经过在三个基准数据集上的实证评估,我们的方法大大提高了对抗训练的鲁棒性并实现了最先进的性能。
Oct, 2023
本文介绍了一种通过强制表示不变性来提高深度神经网络对抗攻击鲁棒性的方法,并比较其与其他标准对抗训练方法的可行性。
Jan, 2018
该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021