本研究旨在探究对深度学习语音识别中对抗性样本传递性的影响因素,发现图像与语音识别中对抗性样本传递性的巨大差异,并提出了基于随机梯度集成和动态梯度加权集成的两种新方法,获得了有效的传递性。
Apr, 2023
深度神经网络的关键问题之一是对抗性攻击和转移性,考虑到安全性和未来的发展,需要加强对抗性漏洞的防御。
Oct, 2023
通过对拟合平滑度和梯度相似度进行权衡,我们揭示了对抗传递的调节机制,发现数据分布移位导致的梯度相似度降级说明了拟合平滑度与梯度相似度之间的贸易协定,并提出了一种更好的替代品构建方法,旨在优化拟合平滑度和梯度相似度,通过数据增强、梯度正则化等技术进行验证。
Jul, 2023
该论文探讨了深度神经网络(DNNs)的对抗性脆弱性,并建立了一个基于转移的攻击基准(TA-Bench)来评估和比较 30 多种方法在 ImageNet 上的 25 个受害模型,从而提供了这些方法的有效性新见解和未来评估的指导。
Nov, 2023
本文首次对大规模数据集和大型模型进行了对抗样本的可迁移性的研究,同时也是首次研究了设计有目标的对抗样本在其目标标签之间的可转移性。通过新颖的集成方法,本文发现大量有目标的对抗样本可以成功地与其目标标签一起转移,并且这些使用集成方法生成的对抗样本可以成功地攻击黑匣子图像分类系统 Clarifai.com。
Nov, 2016
通过建立新的评估准则,我们在 ImageNet 上对 23 种典型攻击与 9 种代表性防御进行了首次大规模的可传递对抗样本评估,发现既有的评估存在误导性结论和遗漏点,从而阻碍了该领域的实际进展评估。
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
使用贝叶斯深度学习技术,以神经网络权重的后验分布进行抽样建立一个 surrogate,可以进一步提高黑盒攻击的可转移性,本文探究了提高攻击可转移性的训练方法, 将我们方法的表现与几种已有方法进行了比较,能够在 ImageNet 上获得 94% 的准确率。
Nov, 2020
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
本研究首次详细审查了对抗性攻击的可转移性方面,系统地分类和评估了各种用于增强对抗性攻击可转移性的方法学。同时,本文引入了一个基准框架 TAA-Bench,集成了十种领先的对抗性攻击可转移性方法,为跨不同模型结构的比较分析提供了一种标准化和系统化的平台。通过全面审查,我们描述了每种方法的有效性和限制,并揭示了它们的操作原理和实际效用,旨在成为该领域学者和实践者的基本资源,为对抗性可转移性的复杂领域绘制地图并为未来的探索奠定基础。
Feb, 2024