欺骗检测器的对抗性样本
本文研究表明即使在物理世界的情境下,机器学习系统仍然容易受到敌对样本的攻击,并通过将手机摄像头获取的对抗性图像输入 ImageNet Inception 分类器,并测量系统的分类精度来证明了这一点。
Jul, 2016
本研究基于对已有测试结果的分析,设计一种算法,可以产生压缩后的贴纸状实体对检测器进行攻击,从而证明当前最新的物体检测算法仍然容易受到物理对抗样本的影响。
Dec, 2017
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
对物理深度学习算法模型的物理攻击,提出了 Disappearance Attack 和 Creation Attack 进行检测,结果表明存在风险,攻击模型具有可迁移性
Jul, 2018
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
本文研究对数据进行污染的方法,发现对预先训练的模型攻击的对抗性示例比传统攻击方法更有效。在分配正确标签时,对抗性示例包含有用的语义信息,可以用于训练;否则,不能用于训练。该方法与现有方法相比显著提高了安全数据发布的效果,我们发布了毒化版本的 ImageNet(ImageNet-P)以鼓励对这种数据混淆形式的研究。
Jun, 2021
文章介绍了一种针对离散输入数据生成对抗性样本的新型损失函数,该方法被应用于卷积神经网络用于恶意软件检测中,可以成功地将生成的有效载荷插入二进制文件中,使其被检测为良性,并保留原始功能。
Feb, 2018
对 10 种检测对抗样本的最新提议进行比较后得出:它们都可以被利用新的损失函数打败,因此推测对抗样本的固有属性实际上是不存在的。作者提出了一些简单的评估准则来评估未来提出的防御措施。
May, 2017