本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
本研究调查了不同模型之间的对抗样本的可传递性,研究表明梯度之间的夹角是影响对抗样本可传递性的根本因素,并给出了一种可以降低模型间对抗样本可传递性的改进简单训练方法。
Apr, 2019
该论文研究了对抗样本在不同模型间的可转移性问题,并发现早期停止训练可以提高可转移性,并提出了一种新方法RFN,通过最小化损失的尖锐度来最大化可转移性。
Apr, 2023
本文提出基于屏蔽无关参数(MUP)的方法来提高转移型对抗攻击中对抗样本的传递性。通过使用基于泰勒展开的评估参数重要性得分的度量方法,并在生成对抗样本时屏蔽不重要的参数来优化先前的代理模型,可以很好地改善传递对抗攻击。通过广泛的实验,可以验证提出的基于MUP的方法的有效性。
本文重新评估了12种常见的对抗样本转移攻击方法,得出结论:对抗转移性经常被高估,在不同的流行模型之间不存在能够传递的单个对抗样本,并提出了一个可靠的基准,包括三个评估协议,以便未来的研究。
Jun, 2023
深度神经网络的关键问题之一是对抗性攻击和转移性,考虑到安全性和未来的发展,需要加强对抗性漏洞的防御。
Oct, 2023
利用数据增强方法,特别是简单的颜色空间增强,可提高对抗性样本在模型间的传递性。
Dec, 2023
提出了一种新颖的基于Lipschitz规正化的模拟模型(LRS)方法,用于转移性黑盒攻击中,通过改进模型参数以获得更好的攻击效果和转移性。研究还揭示了模拟模型的内在属性与转移性之间的关联,包括更小的局部Lipschitz常数、更平滑的损失曲面和更强的对抗鲁棒性。通过对现有深度神经网络和防御模型的攻击实验,结果表明使用LRS方法的攻击成功率和转移性显著提高。
通过对代理模型属性的调查,从对抗迁移的角度出发,我们发现选择更平滑的代理模型能够显著提高基于蒙特卡罗的对抗样本的性能,同时通过理论分析解释了为什么平滑的代理模型也可以增强潜在扩散模型的对抗样本。
Jan, 2024
本研究首次详细审查了对抗性攻击的可转移性方面,系统地分类和评估了各种用于增强对抗性攻击可转移性的方法学。同时,本文引入了一个基准框架TAA-Bench,集成了十种领先的对抗性攻击可转移性方法,为跨不同模型结构的比较分析提供了一种标准化和系统化的平台。通过全面审查,我们描述了每种方法的有效性和限制,并揭示了它们的操作原理和实际效用,旨在成为该领域学者和实践者的基本资源,为对抗性可转移性的复杂领域绘制地图并为未来的探索奠定基础。
Feb, 2024