通过对拟合平滑度和梯度相似度进行权衡,我们揭示了对抗传递的调节机制,发现数据分布移位导致的梯度相似度降级说明了拟合平滑度与梯度相似度之间的贸易协定,并提出了一种更好的替代品构建方法,旨在优化拟合平滑度和梯度相似度,通过数据增强、梯度正则化等技术进行验证。
Jul, 2023
本文重新评估了 12 种常见的对抗样本转移攻击方法,得出结论:对抗转移性经常被高估,在不同的流行模型之间不存在能够传递的单个对抗样本,并提出了一个可靠的基准,包括三个评估协议,以便未来的研究。
Jun, 2023
该研究旨在提高对抗转移性能,在理论和实验的基础上设计了一种称为 Admix 的输入变换攻击方法,该方法能够利用附加图像集合进行攻击并优于现有方法。
Jan, 2021
本研究旨在探究对深度学习语音识别中对抗性样本传递性的影响因素,发现图像与语音识别中对抗性样本传递性的巨大差异,并提出了基于随机梯度集成和动态梯度加权集成的两种新方法,获得了有效的传递性。
Apr, 2023
通过总结和分析现有研究,我们确定了可以影响 Visual-Language Pre-training 模型上的转移攻击效果的两个因素:跨模态交互和数据多样性。基于这些观察,我们提出了一种新的基于自我增强的转移攻击方法,称为 SA-Attack。我们在 Flickr30K 和 COCO 数据集上的实验证实了我们方法的有效性。
Dec, 2023
利用生成对抗算法学习序列模型来自动生成数据增强方法,有效提高图片和文本数据集的识别准确度。
Sep, 2017
通过对现有对抗性攻击的仔细研究,我们提出了一系列技巧来增强对抗性传递性,包括动量初始化、计划的步长、双重示例、基于频谱的输入变换和几种集成策略。在 ImageNet 数据集上的大量实验验证了我们提出的技巧的高效性,并表明结合它们可以进一步增强对抗性传递性。我们的工作提供了实用的见解和技术,以增强对抗性传递性,并通过简单的调整指导提高对现实世界应用的攻击性能。
Jan, 2024
通过建立新的评估准则,我们在 ImageNet 上对 23 种典型攻击与 9 种代表性防御进行了首次大规模的可传递对抗样本评估,发现既有的评估存在误导性结论和遗漏点,从而阻碍了该领域的实际进展评估。
Oct, 2023
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
本文提出了一种名为自适应图片转换学习器(AITL)的新型结构,该结构将不同的图片转换操作集成到统一的框架中,进一步提高对抗样本的可转移性,实验表明该方法在 ImageNet 上的攻击成功率显著提高。
Nov, 2021