本文提出了一种基于失真度量方法的新的迁移性攻击成功率评估工具,并针对随机选择源模型可能导致的问题,提出了一种称为 FiT 的新型选择机制。实验结果表明,FiT 对于多种攻击类型的源模型选择具有高效性。
Apr, 2023
本研究提出了一种基于生成对抗网络(GAN)框架的方法,通过联合训练高级别类别损失和低级别特征损失,获得生成对抗图像和视频,并成功解决了对目标检测模型的对抗攻击中存在的二合一问题:低的迁移能力和高的计算成本。
Nov, 2018
本文提出了一种基于生成模型的黑匣子攻击方法,用于探究深度神经网络的可迁移性,实验结果表明本文提出的方法在粗粒度及细粒度领域中均优于现有方法。
Jan, 2022
通过建立新的评估准则,我们在 ImageNet 上对 23 种典型攻击与 9 种代表性防御进行了首次大规模的可传递对抗样本评估,发现既有的评估存在误导性结论和遗漏点,从而阻碍了该领域的实际进展评估。
Oct, 2023
文章提出了一种利用神经元归因进行特征级别攻击的方法,该方法可以更准确地计算神经元重要性,以提高对现有算法的性能。实验证明,该方法优于现有算法。
Mar, 2022
通过将标准客观函数优化、利用注意力图和平滑决策表面三种方法紧密整合,我们在本文中提出了一种新的简单算法 TAIG (Transferable Attack based on Integrated Gradients),它可以为黑盒攻击寻找高度可转移的敌对样本,两个版本的 TAIG 都计算了沿着直线或随机分段线性路径的积分梯度,均具有很强的可转移性,并且可以与以前的方法无缝协同工作。实验结果表明,TAIG 优于现有的最先进方法 。
May, 2022
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
在这篇论文中,通过在特征空间进行微调,我们提出了一种解决针对未知模型的有针对性对抗样本(AE)传递性问题的方法,实验证明简单的迭代攻击可以产生与资源密集型方法相媲美甚至更好的传递效果。
Jan, 2024
深度神经网络中存在来自攻击样本的干扰,其中特征级攻击是一种有效的攻击类型,本文提出了一种名为 'DANAA' 的双重对抗神经元归因攻击方法,用于获取更准确的特征重要性估计,并通过基于对抗非线性路径将模型输出归因于中间层,以衡量单个神经元的权重,并保留对于传递性更重要的特征。我们在基准数据集上进行了大量实验,展示了我们的方法的最新性能。