提高对抗性迁移性的高级特征多样化
该研究讨论在深度神经网络(DNN)图像分类器范围内的黑盒传递目标对抗攻击威胁模型,提出的方法通过扰动特征层级上的表示来模仿其他类别,使用灵活的攻击框架显示出 ImageNet DNNs 之间的最新目标传输性能,并说明其优越性,相比于其他黑盒传输方法,成功率提高了 10 倍,该方法胜过现有的攻击策略,并在有限的黑盒模型查询情况下同时展示了该方法的扩展性。
Apr, 2020
提出引入竞争对抗元素的优化过程方法,通过不同目标类别和正确类别的扰动竞争使得对抗样本采取不同攻击策略,从而提高了其在不同模型间的迁移性能,该方法命名为 Clean Feature Mixup (CFM)。在 ImageNet 兼容和 CIFAR-10 数据集上的实验结果表明,该方法优于现有基线。
May, 2023
本文针对深度卷积神经网络在人脸识别中容易受到可转移性对抗攻击的问题进行了研究,提出了基于 DFANet 的特征级对抗样本生成方法,通过控制 dropout 提高替代模型的多样性并获得集成的效果,该方法在多种模型、训练数据库和网络架构下的实验表明可以显著提高现有攻击方法的可转移性,最终应用于 LFW 数据库成功生成了新的对抗人脸对并攻击了四个商业 API,本文数据集可用于深度人脸识别的鲁棒性和防御研究。
Apr, 2020
该研究提出了一种基于类别和层次深度特征分布建模和利用的新型对抗攻击方法,其可实现针对未受保护的 ImageNet 模型的最先进的有针对性的黑盒转移攻击结果,并且具有攻击过程可解释性和可解释性的优先级。
Apr, 2020
该研究探讨了使用 Stable Diffusion 生成的数据来增强对抗攻击的传递性,提出了一种基于 Stable Diffusion 的新型攻击方法,并提供了一个快速变体,通过实验证明该方法在对抗性传递性方面优于现有方法,并且与现有的基于传递的攻击方法相兼容。
Nov, 2023
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
本文提出了一种新的深度自适应网络 (DAN) 结构,它将多个领域的分布嵌入到再生核 Hilbert 空间中,并应用最优多核选择方法以匹配均值嵌入。DAN 能够学习具有统计保证的可传递特征,并通过核嵌入的无偏估计来实现线性扩展。实验证据表明,所提出的架构在标准领域自适应基准数据集上获得了最先进的图像分类误差率。
Feb, 2015
通过对现有对抗性攻击的仔细研究,我们提出了一系列技巧来增强对抗性传递性,包括动量初始化、计划的步长、双重示例、基于频谱的输入变换和几种集成策略。在 ImageNet 数据集上的大量实验验证了我们提出的技巧的高效性,并表明结合它们可以进一步增强对抗性传递性。我们的工作提供了实用的见解和技术,以增强对抗性传递性,并通过简单的调整指导提高对现实世界应用的攻击性能。
Jan, 2024