对基于 CNN 的图像取证的对抗样本可转移性研究
我们提出了一种新颖和全面的方法,以提高对卷积神经网络(CNNs)中对抗性示例的攻击强度和传递性的评估,以及验证计算机网络应用中是否存在传递性问题。我们的研究结果表明,即使在计算机网络应用中,对抗性示例对安全的威胁需要开发新的防御机制来增强深度学习技术的安全性。
Oct, 2023
本研究提出了一种基于生成对抗网络(GAN)框架的方法,通过联合训练高级别类别损失和低级别特征损失,获得生成对抗图像和视频,并成功解决了对目标检测模型的对抗攻击中存在的二合一问题:低的迁移能力和高的计算成本。
Nov, 2018
本文首次对大规模数据集和大型模型进行了对抗样本的可迁移性的研究,同时也是首次研究了设计有目标的对抗样本在其目标标签之间的可转移性。通过新颖的集成方法,本文发现大量有目标的对抗样本可以成功地与其目标标签一起转移,并且这些使用集成方法生成的对抗样本可以成功地攻击黑匣子图像分类系统 Clarifai.com。
Nov, 2016
利用多样化的输入模式来生成对抗样本,实现更好的对抗样本传递性,评估该方法在不同防御方法下的对抗成功率,并在 NIPS 2017 对抗比赛中获得了 73.0% 的平均成功率,从而提高了对抗攻击的基准线。
Mar, 2018
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
评估了变压器对系统防御者的恶意样本的强健性以及对系统攻击者的对抗性样本的可迁移性,发现变压器所生成的对抗样本具有最高的可迁移率,对其他模型具有更强的对抗性,强调了研究在安全领域中使用变压器架构进行攻击和防御的重要性,并建议将其作为转移攻击设置中的主要架构。
Oct, 2023