该研究讨论在深度神经网络(DNN)图像分类器范围内的黑盒传递目标对抗攻击威胁模型,提出的方法通过扰动特征层级上的表示来模仿其他类别,使用灵活的攻击框架显示出 ImageNet DNNs 之间的最新目标传输性能,并说明其优越性,相比于其他黑盒传输方法,成功率提高了 10 倍,该方法胜过现有的攻击策略,并在有限的黑盒模型查询情况下同时展示了该方法的扩展性。
Apr, 2020
通过对深度学习模型的不同层进行敌对性扰动攻击验证,研究表明浅层的通道组合对模型的干扰较大,在不同攻击类型中具有共享的易受攻击通道组合,而不同攻击对隐藏表示的影响存在差异且与卷积核大小呈正相关,以此为基础为未来应用开发高效的应对性防御机制奠定技术基础。
May, 2024
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
深度神经网络的关键问题之一是对抗性攻击和转移性,考虑到安全性和未来的发展,需要加强对抗性漏洞的防御。
Oct, 2023
本文提出了一种通过建立中间层次的线性映射以增强基线对抗样本的黑盒可迁移性的方法,实现了在 CIFAR-100 和 ImageNet 上的实验验证以及比之前的最新技术表现强大。
Aug, 2020
在频率域中进行细粒度扰动优化的可传递对抗攻击方法能够增强攻击传递性,有效绕过各种防御措施。
Dec, 2023
本文提出了一种新的对抗攻击方法,通过扰动表示样式的抽象特征,包括可解释和不可解释的风格,诸如鲜艳色彩和锐利轮廓等,通过优化程序注入难以察觉的风格变化,实现深度神经网络模型误分类,我们展示了该方法产生的对抗样本比现有的非受限制攻击更加自然,并支持现有的像素空间的对抗攻击检测和防御技术难以在风格相关特征空间中保证模型的鲁棒性。
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016