机器学习模型因神经网络的线性特性容易受到对抗性扰动的影响,该现象不同于过拟合和非线性,但可以通过生成对抗性训练样本来减小MNIST数据集中maxout网络的误差。
Dec, 2014
对10种检测对抗样本的最新提议进行比较后得出:它们都可以被利用新的损失函数打败,因此推测对抗样本的固有属性实际上是不存在的。作者提出了一些简单的评估准则来评估未来提出的防御措施。
May, 2017
本研究提供了对毒瘤样本现象的完整刻画,目的在于涵盖研究领域的所有重要方面:(1)毒瘤样本存在的假设,(2)对安全性、可靠性和稳健性的影响,(3)生成和保护对抗样本的方法,(4)毒瘤样本在不同机器学习模型之间的转移能力。(5)本文提供充足的背景信息,可作为调查、教程或使用毒瘤样本进行攻击和防御的目录。
Oct, 2018
研究卷积神经网络在恶意软件检测中的应用,探索对抗样本在该领域中的影响,发现之前的攻击不如之前报告的那么有效,同时还存在架构上的弱点,容易遭受新的攻击策略,继而探讨了攻击策略的可变性、提高攻击有效性的权衡以及单步攻击的可转移性。
本论文研究了在恶意软件检测任务中制造对抗样本和对抗样本对抗技术的不同方法,并比较了它们对多个数据集的有效性。
Sep, 2019
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
本文探讨了在网络入侵检测系统中对抗性问题的本质,从攻击者角度出发,研究利用进化计算和深度学习生成对抗样本的方法,并应用于公共数据集,与基线方法做对比,结果表明,这些生成对抗样本会导致11个不同的机器学习模型及投票分类器高误分类率,突出了机器学习检测系统在面临对抗性样本时的脆弱性。
Apr, 2020
提出了一种基于对抗梯度方向的对抗示例检测方法,用于识别特制的输入,以欺骗机器学习分类器,此方法仅应用一个随机扰动对输入示例进行检测,实验表明,相比使用多个扰动的检测方法,该方法在对抗攻击方面表现更好。在多个数据集上的实验表明,该方法相应的AUC-ROC值为97.9%和98.6%,并且胜过了多种其他顶尖的检测方法。
Dec, 2020
本文探讨在可对抗的变形情况下检测对抗攻击,并提出一种名为 defense perturbation 的新方法来检测具有相同输入变换与可靠的对抗攻击。同时介绍了多网络对抗例子,这种对抗例子可以同时欺骗多个网络。
Jan, 2021
该文章回顾了许多现有的针对机器学习模型的对抗攻击,突出了一些尚未解决的挑战,一些特定领域的约束可能会增加制作对抗样本的难度,也强调了如何将这些理论应用到实践的挑战。
Mar, 2023