本文提出了一种通过建立中间层次的线性映射以增强基线对抗样本的黑盒可迁移性的方法,实现了在 CIFAR-100 和 ImageNet 上的实验验证以及比之前的最新技术表现强大。
Aug, 2020
论文提出了一种名为 ILPD 的新方法,通过单一阶段的优化过程,鼓励中间层扰动同时具有有效的对抗方向和巨大的幅度,以构建对抗性样本。实验结果表明,该方法在攻击各种受害者模型方面的性能大大优于现有技术,其中在 ImageNet 上平均提高了 10.07%,在 CIFAR-10 上平均提高了 3.88%。
Apr, 2023
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
本文首次对大规模数据集和大型模型进行了对抗样本的可迁移性的研究,同时也是首次研究了设计有目标的对抗样本在其目标标签之间的可转移性。通过新颖的集成方法,本文发现大量有目标的对抗样本可以成功地与其目标标签一起转移,并且这些使用集成方法生成的对抗样本可以成功地攻击黑匣子图像分类系统 Clarifai.com。
Nov, 2016
本文提出了一种名为自适应图片转换学习器(AITL)的新型结构,该结构将不同的图片转换操作集成到统一的框架中,进一步提高对抗样本的可转移性,实验表明该方法在 ImageNet 上的攻击成功率显著提高。
Nov, 2021
深度神经网络的关键问题之一是对抗性攻击和转移性,考虑到安全性和未来的发展,需要加强对抗性漏洞的防御。
Oct, 2023
通过利用深度神经网络对图像高频分量的扰动的脆弱性,我们提出了一种新方法来生成可转移的有针对性对抗样本,该方法通过训练条件生成器生成针对性的对抗扰动,并将其添加到图像的低频分量中,实验证明我们的方法显著优于现有的方法,将有针对性攻击成功率提高了 3.2% 至 15.5%。
该研究讨论在深度神经网络(DNN)图像分类器范围内的黑盒传递目标对抗攻击威胁模型,提出的方法通过扰动特征层级上的表示来模仿其他类别,使用灵活的攻击框架显示出 ImageNet DNNs 之间的最新目标传输性能,并说明其优越性,相比于其他黑盒传输方法,成功率提高了 10 倍,该方法胜过现有的攻击策略,并在有限的黑盒模型查询情况下同时展示了该方法的扩展性。
Apr, 2020
利用多样化的输入模式来生成对抗样本,实现更好的对抗样本传递性,评估该方法在不同防御方法下的对抗成功率,并在 NIPS 2017 对抗比赛中获得了 73.0% 的平均成功率,从而提高了对抗攻击的基准线。
Mar, 2018