基于转移的对抗攻击的自适应图像转换
通过学习选择最佳的变换组合以提高对抗传递能力的一种新方法,名为 Learning to Transform (L2T),在实验中展现出优于现有方法的性能,并证实其有效性和实用意义。
May, 2024
本文提出了一种新的有针对性的对抗攻击方法,称为 AutoAugment Input Transformation (AAIT),通过搜索最佳的转换策略,并利用找到的最佳转换策略来生成对抗样本,从而提升有针对性攻击中的对抗传递性能。通过在 CIFAR-10 和 ImageNet-Compatible 数据集上进行广泛实验,证明了所提出的 AAIT 方法明显优于其他基于传递性的有针对性攻击方法。
Dec, 2023
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
该研究旨在提高对抗转移性能,在理论和实验的基础上设计了一种称为 Admix 的输入变换攻击方法,该方法能够利用附加图像集合进行攻击并优于现有方法。
Jan, 2021
本文综述了利用图像转换进行对抗检测的近期进展,并提出了一种名为 AdvJudge 的深度学习方法,通过结合 9 种图像转换的分数来判断对抗性示例,并利用可解释的 AI 工具显示了每种图像转换对对抗检测的贡献。
Jan, 2022
本文提出了一种对现有数字图像篡改定位算法进行真实世界应用安全性评估的对抗性攻击方案,通过基于优化和梯度的敌对示例的白盒和黑盒攻击来揭示这种篡改定位器的可靠性,从而准确预测篡改区域并保持高视觉质量的同时,大大降低了定位精度。
Sep, 2023
给定深度神经网络(DNN)对抗性示例的严重性脆弱性,迫切需要一种有效的对抗性攻击来识别 DNN 在安全敏感应用中的缺陷。本文提出了一种基于输入变换的攻击方法,称为 Structure Invariant Attack(SIA),通过对每个图像块应用随机图像变换来产生一组多样化的图像,从而改善了传递性。其在 CNN 和 Transformer 模型上展示了较现有方法更好的传递性。
Sep, 2023
通过建立新的评估准则,我们在 ImageNet 上对 23 种典型攻击与 9 种代表性防御进行了首次大规模的可传递对抗样本评估,发现既有的评估存在误导性结论和遗漏点,从而阻碍了该领域的实际进展评估。
Oct, 2023
利用多样化的输入模式来生成对抗样本,实现更好的对抗样本传递性,评估该方法在不同防御方法下的对抗成功率,并在 NIPS 2017 对抗比赛中获得了 73.0% 的平均成功率,从而提高了对抗攻击的基准线。
Mar, 2018