采用梯度修正的方法,可进一步提高对抗性转移性,通过对多个转换引入的无用梯度进行修正,我们的方法在 ImageNet 数据集上可以实现 82.07%的平均转移成功率,在单模型设置下胜过其他最先进的方法的平均 6.0%,并且我们已将所提出的方法应用于由阿里巴巴组织的 CVPR 2021 ImageNet 无限制对抗攻击比赛中,攻击成功率在 1558 支队伍中排名第二。
May, 2021
本研究评估了不同防御机制对神经网络的有效性,发现使用输入梯度规则化训练的神经网络具有抵御小幅度扰动的鲁棒性,并且可以提高预测的可解释性。同时,对这种神经网络产生的误分类可以解释,并进一步讨论了深度神经网络中解释性和鲁棒性之间的关系。
Nov, 2017
本文旨在探讨一种对抗性对抗性鲁棒性的梯度正则化方法,其中使用局部梯度信息得出新颖的理论鲁棒性边界,并利用可扩展的输入梯度正则化来训练出具有鲁棒性的 ImageNet 模型,同时实验证明输入梯度正则化与对抗性训练具有相似的训练效果。
May, 2019
利用多样化的输入模式来生成对抗样本,实现更好的对抗样本传递性,评估该方法在不同防御方法下的对抗成功率,并在 NIPS 2017 对抗比赛中获得了 73.0% 的平均成功率,从而提高了对抗攻击的基准线。
Mar, 2018
在这篇论文中,我们发现通过在输入数据分布上进行语义保持的变换可以导致 Robust accuracy 的大幅度变化,而 clean accuracy 却没有变化,这表明输入数据分布可以影响神经网络的 Adversarial robustness。
Feb, 2019
该研究旨在提高对抗转移性能,在理论和实验的基础上设计了一种称为 Admix 的输入变换攻击方法,该方法能够利用附加图像集合进行攻击并优于现有方法。
Jan, 2021
本文研究对抗攻击在神经网络领域中的应用,通过数学证明,探索了加入噪声的输入转换与转移对抗性样本的关系。
Jun, 2022
通过对现有对抗性攻击的仔细研究,我们提出了一系列技巧来增强对抗性传递性,包括动量初始化、计划的步长、双重示例、基于频谱的输入变换和几种集成策略。在 ImageNet 数据集上的大量实验验证了我们提出的技巧的高效性,并表明结合它们可以进一步增强对抗性传递性。我们的工作提供了实用的见解和技术,以增强对抗性传递性,并通过简单的调整指导提高对现实世界应用的攻击性能。
Jan, 2024
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018