使用共享对抗训练来防御通用扰动
本文研究的是生成通用对抗扰动和抵御这类扰动的有效方法,提出了一种简单的基于优化的通用攻击方法来降低各种网络的 ImageNet 上的准确性,并提出了一种通用对抗性训练来生成抗干扰的分类器。
Nov, 2018
本文研究了深度神经网络分类器,发现存在普适的微小扰动对所有图像都造成高概率的错误分类,并提出了计算普适扰动的系统算法,证明现有神经网络非常容易受到该扰动攻击,从而出现对人眼几乎无法察觉的误分类。我们为了进一步探究这些扰动,对多个神经网络进行了实证分析并发现它们具有良好的通用性,揭示了分类器高维决策边界之间的重要几何相关性,并指出任何攻击者都可以在输入空间中利用这些单方向的存在来破坏大多数自然图像的分类器带来潜在的安全隐患。
Oct, 2016
该论文提出了一种基于线性函数和神经网络参数计算类特定通用对抗扰动的算法,能使大部分相同类别的图像被错误分类,同时没有训练数据和超参数,并在 ImageNet 上获得了 34% 到 51% 的欺骗率并跨模型传递。研究表明,标准和针对对抗性训练模型所学习的决策边界特征也会影响通用对抗扰动。
Dec, 2019
本文提出了一个 Perturbation Rectifying Network (PRN) 框架,通过学习实际和合成的图像通用扰动,和在 PRN 的输入和输出差异的离散余弦变换上独立训练的检测器,从而有效地保护深度学习网络免受任何图像的通用对抗性扰动的影响。
Nov, 2017
本研究总结了最近在通用对抗攻击领域里取得的进展,讨论了攻击和防御方面的挑战以及通用对抗攻击存在的原因,旨在成为一项动态研究,不定期更新其内容,包括图像、音频、视频和文本等多个领域,欢迎该领域的作者联系我们,以纳入您的新发现。
Mar, 2021
本文发现在两个不同的分类任务中,即便是能够实现几乎达到最先进水平分类精度的量子分类器也能被一个精心设计的通用扰动彻底欺骗,为实现异构分类任务生成通用扰动提供了一个简单而有效的方法,从而为未来的量子学习技术提供有价值的指导。
Jun, 2023