本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
论文研究了神经网络模型的不确定性对于对抗样本的产生具有决定性作用,与体系结构、数据集和训练协议无关,表现为对抗误差具有与对抗扰动大小呈幂律的普适性,通过减小预测熵来提高对抗鲁棒性,在 CIFAR10 上使用神经架构搜索找到更鲁棒的架构。
Nov, 2017
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
本研究提供了对毒瘤样本现象的完整刻画,目的在于涵盖研究领域的所有重要方面:(1)毒瘤样本存在的假设,(2)对安全性、可靠性和稳健性的影响,(3)生成和保护对抗样本的方法,(4)毒瘤样本在不同机器学习模型之间的转移能力。(5)本文提供充足的背景信息,可作为调查、教程或使用毒瘤样本进行攻击和防御的目录。
Oct, 2018
这篇论文探讨了深度学习在图像分类中的安全问题,介绍了针对对抗攻击和对抗防御的新分类方法,提供了研究者需要考虑的相关指导,并讨论了未来研究的方向。
Sep, 2020
对 10 种检测对抗样本的最新提议进行比较后得出:它们都可以被利用新的损失函数打败,因此推测对抗样本的固有属性实际上是不存在的。作者提出了一些简单的评估准则来评估未来提出的防御措施。
May, 2017
本文全面综述了深度神经网络在模式识别中的鲁棒性问题,尤其是针对对抗样本的鲁棒性训练方法,从基础概念、理论模型、算法方法等不同角度进行了系统、结构化的调查和讨论。
Mar, 2022
本文研究表明即使在物理世界的情境下,机器学习系统仍然容易受到敌对样本的攻击,并通过将手机摄像头获取的对抗性图像输入 ImageNet Inception 分类器,并测量系统的分类精度来证明了这一点。
Jul, 2016