研究了基于优化问题的对抗攻击,使用双重变量来最小化对抗性噪声与规则化惩罚,针对非光滑 $p$- 范数进行极值点下降攻击,实验表明,比当前最先进的攻击方法在 MNIST、CIFAR-10 和受限制的 ImageNet 数据集上都优异表现。
Jun, 2021
采用梯度逼近的对抗训练方法能够减少建立稳健模型的成本,而对于常见数据集如 MNIST、CIFAR-10 和 CIFAR-100,该方法在训练时间上节省了高达 60% 的时间,并且在模型测试准确性上没有明显损失。
Sep, 2023
对于图像识别任务,深度神经网络易受到针对性攻击,本文使用 Wasserstein 分布鲁棒优化技术重新构建问题模型,并提出了新的攻击算法,包括 FGSM 和 PGD,并给出了对分布威胁模型的渐进估计。
Jun, 2023
本文介绍了对抗性样本攻击中的两种方法:PGD 方法和 C&W 方法,针对集成模型的攻击,主张使用改进型 PGD 方法达到更高的攻击效率。
Jun, 2019
本文提出了 Guided Adversarial Margin Attack (GAMA),该攻击能够更有效地指导对抗样本的生成;同时,使用所提出的松弛项进行对抗训练,可以提高单步防御的效果,从而达到了最先进的性能水平。
Nov, 2020
该论文提出了一种名为 Diff-PGD 的新框架,用于生成逼真的对抗样本,并通过使用扩散模型引导梯度,确保对抗样本保持靠近原始数据分布同时保持其有效性,证明使用 Diff-PGD 生成的样本具有更好的可转移性和抗净化能力。
May, 2023
对抗攻击的一个主要挑战是可能的攻击方法的庞大空间,本研究引入了一种称为分布对抗损失的新概念,旨在统一随机平滑和输入离散化两种有效削弱攻击者影响的方法。我们证明我们的概念具有 VC 维度和每个输入关联的允许对抗分布集合的大小方面的泛化保证,并通过实验证实该过程,改进了模型对各种对抗攻击的鲁棒性。
Jun, 2024
本文讨论了利用 SegPGD 进行语义分割的有效攻击和防御方法,并提出了一种更有效和高效的对抗训练机制,可以增强基于语义分割的模型的鲁棒性。
Jul, 2022
研究了基于 $l_1$ 投影的梯度下降算法,提出一种自适应算法 $l_1$-APGD 用于攻击和对抗训练,通过 $l_1$-AutoAttack 可以可靠地评估 $l_1$-ball 和 $[0,1]^d$ 威胁模型下的对抗容忍度。
Mar, 2021
该研究论文探讨了对抗训练中的鲁棒性过拟合现象及其与扰动诱导分布的泛化困难性之间的相关性,提供了一个新的上界,其中称为 “局部离散性” 的扰动算子发挥了重要作用。
Nov, 2023