本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
本文研究如何检测机器学习中的对抗性样本,提出使用统计检验和模型增强的方法来识别对抗性样本,并参照多个数据集和对抗样本制作方法进行实验,结果表明统计学特性对于检测对抗性样本至关重要。
Feb, 2017
本文分析对文本分类问题中的解释模型造成的对抗攻击的影响,包括开发一个基于机器学习的分类模型,引入对抗性扰动来理解分类性能,并在攻击之前和之后分析和解释模型的可解释性。
Jul, 2023
该研究证明了构建对 Faster RCNN 和 YOLO 这两种检测器具有迷惑性的对抗性例子的存在,这意味着对检测器的攻击不仅仅局限于分类器,并且可能会潜在威胁到智能车辆行驶的道路安全。
本研究研究了针对神经网络策略的对抗攻击,发现现有的对抗样本制作技术能够很好地降低训练策略的测试时间性能,并且一些小干扰就能引起显著性能下降。
通过对高维度输入数据的实践系统进行观察,我们展示了对于那些容易构建的对抗性攻击及其对大多数模型的威胁性,以及随机扰动的鲁棒性同时易受影响的基本特性,证实了这一现象。然而,令人惊讶的是,即使对于分类器决策边界与训练和测试数据之间只有很小的边距,也很难通过随机取样的扰动来检测到对抗性示例,因此需要更严格的对抗性训练。
Sep, 2023
本研究提供了对毒瘤样本现象的完整刻画,目的在于涵盖研究领域的所有重要方面:(1)毒瘤样本存在的假设,(2)对安全性、可靠性和稳健性的影响,(3)生成和保护对抗样本的方法,(4)毒瘤样本在不同机器学习模型之间的转移能力。(5)本文提供充足的背景信息,可作为调查、教程或使用毒瘤样本进行攻击和防御的目录。
Oct, 2018
通过在预先训练好的外部模型上找到敌对样本,我们将有害的攻击过程转化为有用的防御机制,并且我们的防御方法比先前的方法更为强大和经济。