介绍了一种名为 ILA 的攻击方法,它可以利用源模型的中间层信息对现有的对抗样本进行微调,从而提高黑盒攻击的成功率。
Jul, 2019
深度神经网络的关键问题之一是对抗性攻击和转移性,考虑到安全性和未来的发展,需要加强对抗性漏洞的防御。
Oct, 2023
该论文扩展了 ECCV 中提出的中级攻击的概念,并建立了一种中级差异到预测损失的直接线性映射框架,通过许多线性回归模型的考虑,发现对抗差异的大小与迁移性有关;在此基础上,使用随机初始化多次运行基线攻击可进一步提高性能,实现了基于转移的 l∞和 l2 攻击的新的最高水平。
Mar, 2022
利用多样化的输入模式来生成对抗样本,实现更好的对抗样本传递性,评估该方法在不同防御方法下的对抗成功率,并在 NIPS 2017 对抗比赛中获得了 73.0% 的平均成功率,从而提高了对抗攻击的基准线。
Mar, 2018
本文提出了使用贝叶斯模型对深度神经网络的对抗样本进行攻击的方法,并通过实验验证了其在改善模型迁移性方面的有效性以及攻击效果,攻击成功率平均提升约 19%。
Feb, 2023
本文首次对大规模数据集和大型模型进行了对抗样本的可迁移性的研究,同时也是首次研究了设计有目标的对抗样本在其目标标签之间的可转移性。通过新颖的集成方法,本文发现大量有目标的对抗样本可以成功地与其目标标签一起转移,并且这些使用集成方法生成的对抗样本可以成功地攻击黑匣子图像分类系统 Clarifai.com。
Nov, 2016
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
该论文探讨了深度神经网络(DNNs)的对抗性脆弱性,并建立了一个基于转移的攻击基准(TA-Bench)来评估和比较 30 多种方法在 ImageNet 上的 25 个受害模型,从而提供了这些方法的有效性新见解和未来评估的指导。
Nov, 2023
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
本文提出了一种新的黑盒对抗攻击方法,通过使用预训练模型学习低维嵌入,然后在此嵌入空间内进行高效搜索,从而攻击未知目标网络。该方法能够生成具有高级语义模式的对抗性扰动,易于迁移,可大大提高黑盒对抗攻击的查询效率。作者在 MNIST、ImageNet 和 Google Cloud Vision API 上进行评估,并在 CIFAR10 和 ImageNet 上攻击对抗性防御网络,取得了良好的攻击效果。
Nov, 2019