提出了一种新的通用攻击方法 CD-UAP, 可以生成一个唯一的通用扰动,以欺骗目标网络,使其错误分类只选定的类组,而对其余类组影响有限。通过基于各种损失函数配置的算法框架来设计并比较,其在各种基准数据集上进行了广泛的实验,获得了最先进的性能。
Oct, 2020
本研究总结了最近在通用对抗攻击领域里取得的进展,讨论了攻击和防御方面的挑战以及通用对抗攻击存在的原因,旨在成为一项动态研究,不定期更新其内容,包括图像、音频、视频和文本等多个领域,欢迎该领域的作者联系我们,以纳入您的新发现。
Mar, 2021
首次尝试以攻击图像检索系统为目标,利用新的方法生成反检索通用对抗扰动,通过降低相关的排名度量来打破图像特征之间的邻域关系。我们的方法通过多尺度随机调整大小的方案和排名蒸馏策略扩展攻击方法,并在四个广泛使用的图像检索数据集上进行了评估。在不同度量方面,如 mAP 和 mP @ 10 等,报告了显着的性能下降。最后,我们在实际的视觉搜索引擎 Google Images 上测试了我们的攻击方法,证明了我们的方法的实际潜力。
Dec, 2018
本文综述了最近在图像分类任务中的 UAPs 的进展,并将其分类为噪声攻击和生成器攻击,并提供了每个类别中代表性方法的全面概述,同时还评估了不同的损失函数在一致的培训框架内的各种攻击设置的有效性,最后提供了扰动的一些可视化及未来的潜在研究方向。
Jun, 2023
本论文提出了一种不需要原始训练数据即可计算 UAPs 的数据无关对抗性检测框架,并对各种文本分类任务进行了实验证明其具有竞争性的检测性能,且与正常推断相当。
本文探讨了深度学习在遥感图像领域中的应用,尤其是在普适性对抗扰动方面的研究,并通过设计了一种新方法,可实现对遥感图像分类模型的攻击成功率高达 97.09%。
Feb, 2022
该研究旨在对 SAM 进行有针对性的对抗攻击,提出了一种仅攻击图像编码器的简单且有效的方法,并提出了一种新的正则化损失以增强不同模型之间的特征传递性,通过增加对随机自然图像的特征占优势来进行黑盒对抗攻击。
Oct, 2023
SAM 的基于任务的视觉模型可能会向基础模型方向发展,但是,我们的调查表明,SAM 易受对抗性攻击的影响,尤其是白盒攻击。
May, 2023
本文提出了一种针对深度网络易受对抗扰动攻击的问题的方法,使用预训练网络生成图像无关对抗扰动(UAPs),并通过在源模型的第一层仅关注对抗能量的损失,提高了 UAPs 的传递性,并在实验中展示了该方法的优越性。
本篇论文探究如何通过生成普遍的对抗扰动,使卷积神经网络的语义图像分割结果变为预设的结果,同时还研究了去除语义图像中某个目标类别的扰动。
Apr, 2017