通过贝叶斯攻击提高对抗样本的传递性
本文提出了使用贝叶斯模型对深度神经网络的对抗样本进行攻击的方法,并通过实验验证了其在改善模型迁移性方面的有效性以及攻击效果,攻击成功率平均提升约 19%。
Feb, 2023
使用贝叶斯深度学习技术,以神经网络权重的后验分布进行抽样建立一个 surrogate,可以进一步提高黑盒攻击的可转移性,本文探究了提高攻击可转移性的训练方法, 将我们方法的表现与几种已有方法进行了比较,能够在 ImageNet 上获得 94% 的准确率。
Nov, 2020
利用多样化的输入模式来生成对抗样本,实现更好的对抗样本传递性,评估该方法在不同防御方法下的对抗成功率,并在 NIPS 2017 对抗比赛中获得了 73.0% 的平均成功率,从而提高了对抗攻击的基准线。
Mar, 2018
本文提出了一种通过建立中间层次的线性映射以增强基线对抗样本的黑盒可迁移性的方法,实现了在 CIFAR-100 和 ImageNet 上的实验验证以及比之前的最新技术表现强大。
Aug, 2020
通过建立新的评估准则,我们在 ImageNet 上对 23 种典型攻击与 9 种代表性防御进行了首次大规模的可传递对抗样本评估,发现既有的评估存在误导性结论和遗漏点,从而阻碍了该领域的实际进展评估。
Oct, 2023
通过对现有对抗性攻击的仔细研究,我们提出了一系列技巧来增强对抗性传递性,包括动量初始化、计划的步长、双重示例、基于频谱的输入变换和几种集成策略。在 ImageNet 数据集上的大量实验验证了我们提出的技巧的高效性,并表明结合它们可以进一步增强对抗性传递性。我们的工作提供了实用的见解和技术,以增强对抗性传递性,并通过简单的调整指导提高对现实世界应用的攻击性能。
Jan, 2024
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
通过细调超参数,生成不同的批次对抗性样本并取平均的方法可以提高对抗性迁移性,并且相比传统方法没有额外的生成时间和计算成本,与现有的基于迁移的方法相结合可以生成更具迁移性的对抗性样本,通过在 ImageNet 数据集上进行的大量实验表明,我们的方法比现有的攻击方法有更高的攻击成功率。
Feb, 2024
本文首次对大规模数据集和大型模型进行了对抗样本的可迁移性的研究,同时也是首次研究了设计有目标的对抗样本在其目标标签之间的可转移性。通过新颖的集成方法,本文发现大量有目标的对抗样本可以成功地与其目标标签一起转移,并且这些使用集成方法生成的对抗样本可以成功地攻击黑匣子图像分类系统 Clarifai.com。
Nov, 2016