使用生成模型的可传递通用对抗扰动
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
Dec, 2017
本研究总结了最近在通用对抗攻击领域里取得的进展,讨论了攻击和防御方面的挑战以及通用对抗攻击存在的原因,旨在成为一项动态研究,不定期更新其内容,包括图像、音频、视频和文本等多个领域,欢迎该领域的作者联系我们,以纳入您的新发现。
Mar, 2021
本文提出了一种新的通用对抗攻击框架 GUAP,通过非加性扰动或加性扰动,或两者的组合来发起攻击,实验表明该框架在 CIFAR-10 和 ImageNet 数据集上可以达到比当前先进通用对抗攻击方法高达 15%和 19%的攻击成功率。
Oct, 2020
该论文提出了一种基于线性函数和神经网络参数计算类特定通用对抗扰动的算法,能使大部分相同类别的图像被错误分类,同时没有训练数据和超参数,并在 ImageNet 上获得了 34% 到 51% 的欺骗率并跨模型传递。研究表明,标准和针对对抗性训练模型所学习的决策边界特征也会影响通用对抗扰动。
Dec, 2019
本文综述了最近在图像分类任务中的 UAPs 的进展,并将其分类为噪声攻击和生成器攻击,并提供了每个类别中代表性方法的全面概述,同时还评估了不同的损失函数在一致的培训框架内的各种攻击设置的有效性,最后提供了扰动的一些可视化及未来的潜在研究方向。
Jun, 2023
本论文提出了一种不需要原始训练数据即可计算 UAPs 的数据无关对抗性检测框架,并对各种文本分类任务进行了实验证明其具有竞争性的检测性能,且与正常推断相当。
Jun, 2023
本文研究的是生成通用对抗扰动和抵御这类扰动的有效方法,提出了一种简单的基于优化的通用攻击方法来降低各种网络的 ImageNet 上的准确性,并提出了一种通用对抗性训练来生成抗干扰的分类器。
Nov, 2018
首次尝试以攻击图像检索系统为目标,利用新的方法生成反检索通用对抗扰动,通过降低相关的排名度量来打破图像特征之间的邻域关系。我们的方法通过多尺度随机调整大小的方案和排名蒸馏策略扩展攻击方法,并在四个广泛使用的图像检索数据集上进行了评估。在不同度量方面,如 mAP 和 mP @ 10 等,报告了显着的性能下降。最后,我们在实际的视觉搜索引擎 Google Images 上测试了我们的攻击方法,证明了我们的方法的实际潜力。
Dec, 2018