利用相似目标的增强对抗攻击
本研究首次详细审查了对抗性攻击的可转移性方面,系统地分类和评估了各种用于增强对抗性攻击可转移性的方法学。同时,本文引入了一个基准框架 TAA-Bench,集成了十种领先的对抗性攻击可转移性方法,为跨不同模型结构的比较分析提供了一种标准化和系统化的平台。通过全面审查,我们描述了每种方法的有效性和限制,并揭示了它们的操作原理和实际效用,旨在成为该领域学者和实践者的基本资源,为对抗性可转移性的复杂领域绘制地图并为未来的探索奠定基础。
Feb, 2024
本文通过大规模系统的实证研究,探究了云端机器学习服务平台的漏洞和其普遍存在的在深度神经网络中的 “对抗攻击” 问题,发现先前的假设和结论在真实世界环境下不再一致,并指出了对未来研究方向的启示。
Apr, 2022
通过对现有对抗性攻击的仔细研究,我们提出了一系列技巧来增强对抗性传递性,包括动量初始化、计划的步长、双重示例、基于频谱的输入变换和几种集成策略。在 ImageNet 数据集上的大量实验验证了我们提出的技巧的高效性,并表明结合它们可以进一步增强对抗性传递性。我们的工作提供了实用的见解和技术,以增强对抗性传递性,并通过简单的调整指导提高对现实世界应用的攻击性能。
Jan, 2024
本文首次对大规模数据集和大型模型进行了对抗样本的可迁移性的研究,同时也是首次研究了设计有目标的对抗样本在其目标标签之间的可转移性。通过新颖的集成方法,本文发现大量有目标的对抗样本可以成功地与其目标标签一起转移,并且这些使用集成方法生成的对抗样本可以成功地攻击黑匣子图像分类系统 Clarifai.com。
Nov, 2016
使用贝叶斯深度学习技术,以神经网络权重的后验分布进行抽样建立一个 surrogate,可以进一步提高黑盒攻击的可转移性,本文探究了提高攻击可转移性的训练方法, 将我们方法的表现与几种已有方法进行了比较,能够在 ImageNet 上获得 94% 的准确率。
Nov, 2020
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
通过细调超参数,生成不同的批次对抗性样本并取平均的方法可以提高对抗性迁移性,并且相比传统方法没有额外的生成时间和计算成本,与现有的基于迁移的方法相结合可以生成更具迁移性的对抗性样本,通过在 ImageNet 数据集上进行的大量实验表明,我们的方法比现有的攻击方法有更高的攻击成功率。
Feb, 2024
本研究提出一种称为 StyLess 的对抗攻击方法,通过使用包含不同风格特征的样式化网络,以及利用自适应实例标准化来编码不同的风格特征,从而生成具有可转移性的扰动,以此提高对抗样本的攻击传递能力,并在与其他攻击技术结合时优于现有的攻击方法。
Apr, 2023
本文提出了一种增强的动量迭代梯度法,通过将先前迭代中梯度方向的数据点采样的平均梯度积累,稳定更新方向并逃离局部最大值,有效提高了动量迭代梯度法的对抗迁移性能,进一步结合各种输入转换方法可显著提升对抗迁移性能,实验证明平均提高 11.1%。同时,在集成模型设置下攻击多种尝试性高的防御模型,达到 7.8% 的显著提高。
Mar, 2021