利用多样化的输入模式来生成对抗样本,实现更好的对抗样本传递性,评估该方法在不同防御方法下的对抗成功率,并在 NIPS 2017 对抗比赛中获得了 73.0% 的平均成功率,从而提高了对抗攻击的基准线。
Mar, 2018
提出了一种基于输入转换的新攻击称为 MIST,通过将输入图像与随机平移的图像进行随机混合,并分离每个混合图像的损失项的梯度来对抗不准确的梯度,通过在每个输入样本上计算多个混合图像的梯度,MIST 在 ImageNet 数据集上的实验证明在卷积神经网络(CNN)和视觉变换器(ViTs)中优于现有的 SOTA 输入转换攻击,并支持 MIST 的高效性和广泛性。
Nov, 2023
通过对现有对抗性攻击的仔细研究,我们提出了一系列技巧来增强对抗性传递性,包括动量初始化、计划的步长、双重示例、基于频谱的输入变换和几种集成策略。在 ImageNet 数据集上的大量实验验证了我们提出的技巧的高效性,并表明结合它们可以进一步增强对抗性传递性。我们的工作提供了实用的见解和技术,以增强对抗性传递性,并通过简单的调整指导提高对现实世界应用的攻击性能。
Jan, 2024
采用梯度修正的方法,可进一步提高对抗性转移性,通过对多个转换引入的无用梯度进行修正,我们的方法在 ImageNet 数据集上可以实现 82.07%的平均转移成功率,在单模型设置下胜过其他最先进的方法的平均 6.0%,并且我们已将所提出的方法应用于由阿里巴巴组织的 CVPR 2021 ImageNet 无限制对抗攻击比赛中,攻击成功率在 1558 支队伍中排名第二。
May, 2021
黑盒对抗生成框架通过增强输入的多样性和自适应步长来生成可转移的对抗样本,具有超过现有基准的表现。
本文研究对抗攻击在神经网络领域中的应用,通过数学证明,探索了加入噪声的输入转换与转移对抗性样本的关系。
Jun, 2022
本文提出了一种名为自适应图片转换学习器(AITL)的新型结构,该结构将不同的图片转换操作集成到统一的框架中,进一步提高对抗样本的可转移性,实验表明该方法在 ImageNet 上的攻击成功率显著提高。
Nov, 2021
该研究探讨了使用 Stable Diffusion 生成的数据来增强对抗攻击的传递性,提出了一种基于 Stable Diffusion 的新型攻击方法,并提供了一个快速变体,通过实验证明该方法在对抗性传递性方面优于现有方法,并且与现有的基于传递的攻击方法相兼容。
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
通过学习选择最佳的变换组合以提高对抗传递能力的一种新方法,名为 Learning to Transform (L2T),在实验中展现出优于现有方法的性能,并证实其有效性和实用意义。
May, 2024