提出了一种名为 CroPA 的方法,通过使用可学习的提示来对抗误导性的对手图片,从而显著提高了对不同提示的对手样本的传递能力。
Mar, 2024
我们提出了一种新的方法,在互模态优化方案中生成对抗性攻击,利用预训练的 CLIP 模型进行视觉攻击和文本防御,并通过迭代训练策略实现攻击的转移性。我们的方法在多个基准数据集上得到了验证,表明我们的互模态攻击策略能够有效产生高可转移攻击,并且优于最先进的攻击方法,可作为即插即用解决方案。
Dec, 2023
本研究提出了一种基于生成对抗网络(GAN)框架的方法,通过联合训练高级别类别损失和低级别特征损失,获得生成对抗图像和视频,并成功解决了对目标检测模型的对抗攻击中存在的二合一问题:低的迁移能力和高的计算成本。
Nov, 2018
本文提出了使用贝叶斯模型对深度神经网络的对抗样本进行攻击的方法,并通过实验验证了其在改善模型迁移性方面的有效性以及攻击效果,攻击成功率平均提升约 19%。
Feb, 2023
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
通过学习选择最佳的变换组合以提高对抗传递能力的一种新方法,名为 Learning to Transform (L2T),在实验中展现出优于现有方法的性能,并证实其有效性和实用意义。
May, 2024
这篇论文提出了一种双重攻击框架,包括 PNA 攻击和 PatchOut 攻击,用于针对 ViTs 的结构进行特殊定制的对抗攻击,包括考虑补丁和自注意力,从而提高对抗样本的可转移性,实验证明,这种攻击方法可大大提高 ViTs 之间的可转移性,并结合现有的转移方法进行性能提升。
Sep, 2021
通过总结和分析现有研究,我们确定了可以影响 Visual-Language Pre-training 模型上的转移攻击效果的两个因素:跨模态交互和数据多样性。基于这些观察,我们提出了一种新的基于自我增强的转移攻击方法,称为 SA-Attack。我们在 Flickr30K 和 COCO 数据集上的实验证实了我们方法的有效性。
本研究通过提出两种攻击策略,Self-Ensemble 和 Token Refinement,充分利用了 Vision Transformers 的自注意力和组合性质来增强对抗攻击的传递性能。
Jun, 2021
使用贝叶斯深度学习技术,以神经网络权重的后验分布进行抽样建立一个 surrogate,可以进一步提高黑盒攻击的可转移性,本文探究了提高攻击可转移性的训练方法, 将我们方法的表现与几种已有方法进行了比较,能够在 ImageNet 上获得 94% 的准确率。
Nov, 2020