深入研究:利用平坦性提前停止对抗样本的可转移性
本文提出一种新方法来生成攻击模型的对抗样本,该方法结合了平稳局部区域和梯度规范化来获得更好的迁移性,实验结果在 ImageNet 兼容数据集上表明此方法比现有的攻击方法能够更好地提高模型的迁移性。
Jun, 2023
通过对拟合平滑度和梯度相似度进行权衡,我们揭示了对抗传递的调节机制,发现数据分布移位导致的梯度相似度降级说明了拟合平滑度与梯度相似度之间的贸易协定,并提出了一种更好的替代品构建方法,旨在优化拟合平滑度和梯度相似度,通过数据增强、梯度正则化等技术进行验证。
Jul, 2023
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
使用贝叶斯深度学习技术,以神经网络权重的后验分布进行抽样建立一个 surrogate,可以进一步提高黑盒攻击的可转移性,本文探究了提高攻击可转移性的训练方法, 将我们方法的表现与几种已有方法进行了比较,能够在 ImageNet 上获得 94% 的准确率。
Nov, 2020
本文研究如何在数据稀缺或者训练成本较高的情况下,通过对源模型的继承和微调,使得目标模型不仅精度高,而且对抗攻击具有良好的鲁棒性,其中运用到 Transfer Learning, Neural Network Classifiers,Robustness,Lifelong Learning 和 Generalization 等关键词。
May, 2019
本文研究了在深度学习中常用的迁移学习策略,探讨了始终关注模型精度而忽视模型鲁棒性问题的不足之处,并提出了一种基于特征距离最小化的协作式对抗鲁棒迁移学习方法(CARTL),以提高模型的鲁棒性。本文还就 BN 层对模型鲁棒性的影响进行研究,发现冻结 BN 层可以进一步提高模型的鲁棒性。
Jun, 2021
本文提出了一种新方法,即 Backward Propagation Attack(BPA),以增强与输入图像相关的梯度和损失函数之间的关联性,从而生成更具有传递性的对抗性样本,这在提高对真实世界应用的攻击中有很大的潜力。
Jun, 2023
本研究证明,相较于标准预训练模型,鲁棒性较强的预训练模型在转移学习中表现更佳。通过研究图像分类任务,发现鲁棒性较强的 ImageNet 分类器在一系列标准下游任务中得到了更高的准确性。
Jul, 2020
本文提出了一种基于失真度量方法的新的迁移性攻击成功率评估工具,并针对随机选择源模型可能导致的问题,提出了一种称为 FiT 的新型选择机制。实验结果表明,FiT 对于多种攻击类型的源模型选择具有高效性。
Apr, 2023