StyLess: 提升对抗样本的可迁移性
通过使用不同域中的数据增强,我们提出了一种名为 Style Transfer Method(STM)的新的攻击方法,利用提出的任意风格转换网络将图像转换为不同的域,从而显著提高了对抗性可转移性。
Aug, 2023
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
本研究首次证明存在领域不变的对抗性攻击,提出了一个用于在不同领域中高度转移的攻击框架,核心是一个可生成网络,具有相对论监督信号,能够实现领域不变的扰动。该方法在白盒和黑盒情况下均创新了欺骗率的最佳性能,并且尽管它是一个无实例特定扰动的函数,但优于传统上更强的实例特定攻击方法。
May, 2019
本文首次对大规模数据集和大型模型进行了对抗样本的可迁移性的研究,同时也是首次研究了设计有目标的对抗样本在其目标标签之间的可转移性。通过新颖的集成方法,本文发现大量有目标的对抗样本可以成功地与其目标标签一起转移,并且这些使用集成方法生成的对抗样本可以成功地攻击黑匣子图像分类系统 Clarifai.com。
Nov, 2016
通过建立新的评估准则,我们在 ImageNet 上对 23 种典型攻击与 9 种代表性防御进行了首次大规模的可传递对抗样本评估,发现既有的评估存在误导性结论和遗漏点,从而阻碍了该领域的实际进展评估。
Oct, 2023
本文通过大规模系统的实证研究,探究了云端机器学习服务平台的漏洞和其普遍存在的在深度神经网络中的 “对抗攻击” 问题,发现先前的假设和结论在真实世界环境下不再一致,并指出了对未来研究方向的启示。
Apr, 2022