在本文中,我们提出了一种针对稠密预测模型(例如对象检测器和分割器)的对抗攻击方法和模型集成。我们的模型集成方法通过适当的模型权重归一化和根据受害者模型的加权调整产生更有效的攻击。我们还表明,我们的方法在对象检测和分割方面胜过了现有的黑盒攻击方法,并能够生成一个单一的扰动同时欺骗多个黑盒检测和分割模型。
Mar, 2023
本文提出了一种基于多尺度注意力图的逐渐合成平均图的方法,通过压制目标物体的前景注意力和增强背景的注意力,生成可实现物理伪装的转移攻击,取得了优于现有技术的结果。
May, 2022
本文提出了一种新的黑盒对抗攻击方法,通过使用预训练模型学习低维嵌入,然后在此嵌入空间内进行高效搜索,从而攻击未知目标网络。该方法能够生成具有高级语义模式的对抗性扰动,易于迁移,可大大提高黑盒对抗攻击的查询效率。作者在 MNIST、ImageNet 和 Google Cloud Vision API 上进行评估,并在 CIFAR10 和 ImageNet 上攻击对抗性防御网络,取得了良好的攻击效果。
Nov, 2019
对语义分割模型进行全面分析,发现传统的对抗攻击方法无法很好地转移到目标模型,因此需要研究适用于语义分割的可传递攻击方法。通过有效的数据增强、平移不变特征以及稳定的优化策略,提出了一种基于集成的语义分割攻击方法,以实现更有效且具有更高可传递性的攻击。
Jul, 2023
通过自适应地控制每个模型输出的融合,监测其对于攻击目标的贡献差异比率,本文提出了一种自适应集成攻击(AdaEA)方法,并引入一个降低差异的滤波器以进一步同步更新方向,从而在各种数据集上取得了显著改进,同时能够提升已有的基于迁移的攻击方法,进一步证明了其高效性和多功能性。
Aug, 2023
本研究首次详细审查了对抗性攻击的可转移性方面,系统地分类和评估了各种用于增强对抗性攻击可转移性的方法学。同时,本文引入了一个基准框架 TAA-Bench,集成了十种领先的对抗性攻击可转移性方法,为跨不同模型结构的比较分析提供了一种标准化和系统化的平台。通过全面审查,我们描述了每种方法的有效性和限制,并揭示了它们的操作原理和实际效用,旨在成为该领域学者和实践者的基本资源,为对抗性可转移性的复杂领域绘制地图并为未来的探索奠定基础。
Feb, 2024
本篇研究提出一种基于对象共现和它们相对位置和大小作为上下文信息的上下文感知攻击方法,可成功针对黑盒对象检测器生成有针对性的误分类攻击,并在 PASCAL VOC 数据集上实现高达 20% 以上的性能提升。
Dec, 2021
本研究旨在探究对深度学习语音识别中对抗性样本传递性的影响因素,发现图像与语音识别中对抗性样本传递性的巨大差异,并提出了基于随机梯度集成和动态梯度加权集成的两种新方法,获得了有效的传递性。
Apr, 2023
该论文探讨了深度神经网络(DNNs)的对抗性脆弱性,并建立了一个基于转移的攻击基准(TA-Bench)来评估和比较 30 多种方法在 ImageNet 上的 25 个受害模型,从而提供了这些方法的有效性新见解和未来评估的指导。
Nov, 2023
通过将能量引入到对抗补丁生成过程中,本文介绍了如何最小化 “人” 类别的总能量,以生成针对多个目标模型输出的对抗补丁。通过采用对抗训练,将动态优化的集成模型构建为在生成的对抗补丁能够有效攻击所有目标模型的平衡点上调整被攻击目标模型的权重参数,实现了更强的攻击潜力。
Dec, 2023