动量在对抗攻击中的增强
本文提出了一种增强的动量迭代梯度法,通过将先前迭代中梯度方向的数据点采样的平均梯度积累,稳定更新方向并逃离局部最大值,有效提高了动量迭代梯度法的对抗迁移性能,进一步结合各种输入转换方法可显著提升对抗迁移性能,实验证明平均提高 11.1%。同时,在集成模型设置下攻击多种尝试性高的防御模型,达到 7.8% 的显著提高。
Mar, 2021
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
通过对现有对抗性攻击的仔细研究,我们提出了一系列技巧来增强对抗性传递性,包括动量初始化、计划的步长、双重示例、基于频谱的输入变换和几种集成策略。在 ImageNet 数据集上的大量实验验证了我们提出的技巧的高效性,并表明结合它们可以进一步增强对抗性传递性。我们的工作提供了实用的见解和技术,以增强对抗性传递性,并通过简单的调整指导提高对现实世界应用的攻击性能。
Jan, 2024
本文提出了一种利用 Moving Target Defense(MTD)的元防御策略来提高深度神经网络(DNNs)在视觉分类任务中的鲁棒性,其中通过将策略交互组成 Bayesian Stackelberg Game(BSG)来确定选取哪个训练好的神经网络,实验证明 MTDeep 可以有效降低 MNIST、FashionMNIST 和 ImageNet 等数据集中被扰动图像的错误分类率,同时保持对于合法测试图像的高分类准确率,并且 MTDeep 能够与任何现有的防御机制一起使用。
May, 2017
为了在更小的批次和更少的 epochs 中帮助神经网络学习更强大的特征表示,本文提出了一种新的对抗动量对比学习方法,并引入了对应于干净样本和对抗样本的两个存储器。与以前的对抗性预训练模型相比,该方法在更小的批量和更少的训练 epochs 下实现了更好的性能。此外,该模型在下游分类任务上微调后优于一些最先进的监督防御方法。
Dec, 2020
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本文研究了深度学习在无线通信系统中应用的安全性问题,使用快速梯度符号法、动量迭代快速梯度符号法和方向性梯度下降法攻击了大规模多输入多输出系统中功率分配的神经网络,发现在神经网络输入的微小扰动下能使白盒攻击的收益率达到 86%。
Jan, 2021
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018