通过优化生成器参数的训练过程并引入梯度编辑机制,GE-AdvGAN 算法能够生成高度可迁移的对抗样本并在执行时间上与现有方法相比保持最小化。
Jan, 2024
本文重新评估了 12 种常见的对抗样本转移攻击方法,得出结论:对抗转移性经常被高估,在不同的流行模型之间不存在能够传递的单个对抗样本,并提出了一个可靠的基准,包括三个评估协议,以便未来的研究。
Jun, 2023
本研究旨在探究对深度学习语音识别中对抗性样本传递性的影响因素,发现图像与语音识别中对抗性样本传递性的巨大差异,并提出了基于随机梯度集成和动态梯度加权集成的两种新方法,获得了有效的传递性。
Apr, 2023
在这篇论文中,通过在特征空间进行微调,我们提出了一种解决针对未知模型的有针对性对抗样本(AE)传递性问题的方法,实验证明简单的迭代攻击可以产生与资源密集型方法相媲美甚至更好的传递效果。
通过对拟合平滑度和梯度相似度进行权衡,我们揭示了对抗传递的调节机制,发现数据分布移位导致的梯度相似度降级说明了拟合平滑度与梯度相似度之间的贸易协定,并提出了一种更好的替代品构建方法,旨在优化拟合平滑度和梯度相似度,通过数据增强、梯度正则化等技术进行验证。
Jul, 2023
本文提出了一种名为 Meta Gradient Adversarial Attack(MGAA)的新型结构,采用元学习的思想,插入攻击方法以提高跨模型的传递性,通过缩小白盒和黑盒攻击之间的梯度方向差距来改善黑盒设置下的对抗样本的传递性。在 CIFAR10 和 ImageNet 数据集上的实验结果表明,本文所提出的结构在黑盒和白盒攻击设置方面胜过了现有的最先进方法。
Aug, 2021
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
该研究选择了对抗样本(AE)作为机器学习的一种攻击方法,通过对数据添加不可感知的扰动来诱导错分。研究通过使用高斯过程(GP)分类,探究了成功 AE 的概率上限,并证明了该上限取决于 AE 的扰动范数、GP 中使用的核函数以及训练数据集中不同标签最近对之间的距离。令人惊讶的是,该上限并不依赖于样本数据集的分布情况。通过在 ImageNet 上进行的实验证明了我们的理论结果,并展示了改变核函数参数会导致成功 AE 概率上限的变化。
Mar, 2024
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
本文提出一种新方法来生成攻击模型的对抗样本,该方法结合了平稳局部区域和梯度规范化来获得更好的迁移性,实验结果在 ImageNet 兼容数据集上表明此方法比现有的攻击方法能够更好地提高模型的迁移性。