基础模型作为替代模型:迈向更实用的对抗攻击
本研究通过攻击深度特征表示来操纵开放世界感知模型,以解决封闭集下游任务,并在白盒、黑盒和模型类型迁移的情况下展示攻击的有效性,旨在识别这些模型的关键敌对弱点,以提高未来设计的鲁棒性。
Aug, 2023
基于开源的基础模型 CLIP 的先前训练,我们揭示了其对下游模型的共享对抗性漏洞,并提出了一种名为 Patch Representation Misalignment(PRM)的简单而有效的对抗性攻击策略,该方法可以同时欺骗 4 个常见视觉 - 语言任务中的超过 20 个下游模型,呼吁在这些场景中更加谨慎。
Mar, 2024
通过使用少量的样本,本研究提出了三种机制进行训练,其中原型重建是最有效的,生成的对抗性样本可成功地转移至各种图像分类和面部验证模型,最终的应用结果显示我们的方法能够显著降低商业名人识别系统的预测准确率近 15.4%。
Dec, 2020
通过使用代理网络的类分数梯度而不需要其他先验知识或启发式方法,本文提出了一种简单的算法,其通过搜索实现了最先进的结果,有效地从一个网络传输攻击到另一个网络。
Mar, 2022
基于代理的黑盒攻击暴露了深度神经网络的高易受攻击性。我们提出了一种生成代理方法,它学习了与目标决策边界相接近的样本的分布,并可以用于制造在其他类别中属于原始样本但几乎不可察觉的对抗性样本。在各种目标和数据集上,该生成方法导致攻击具有明显高的成功率。
Feb, 2024
通过生成器人工策划的查询,对于第一次扩展到用于预测物体检测中的边界框坐标的回归问题的黑盒子攻击,提出了一个无数据模型提取技术,发现定义损失函数和使用新型生成器设置是提取目标模型的关键。所提出的模型提取方法通过合理的查询取得了显著的结果,该物体检测漏洞的发现将有助于未来保护这类模型的前景。
Aug, 2023
本文研究了使用图像中的不可察觉攻击来改变多模态基础模型的标题输出,揭示了恶意内容提供者如何利用此方式伤害诚实用户,并强调了部署的多模态基础模型应采取对抗性攻击的对策。
Aug, 2023
该文章介绍了使用几何学方法的黑盒决策攻击的分类器,SURFREE,通过精确指示分类器决策边界的几何属性,实现了超过之前攻击的查询次数的快速失真衰减和竞争优势。
Nov, 2020
本文研究了图信号处理与图嵌入模型之间的理论联系,将图嵌入模型作为一个通用的图信号进程,并提出了一种广义的对抗攻击器:GF-Attack,该攻击只针对图滤波器,不需要访问任何目标分类器的知识。实验结果表明,我们的攻击器对多个基准数据集的不同图嵌入模型都能有效攻击,即使是像一条边改变这样的小的图扰动也可以对不同的图嵌入模型产生强大的攻击效果。
Aug, 2019
提出了一种新的针对硬标签的黑盒攻击的优化方法,利用经预训练的替代模型指导优化过程,实验证明该方法在不同目标模型架构下显著提高了攻击的查询效率,攻击成功率较基准测试提高了约 5 倍,特别是在 100 和 250 个查询预算下。
Mar, 2024