对深度学习系统的基于物理摄像头的攻击:对抗相机贴纸
本研究基于对已有测试结果的分析,设计一种算法,可以产生压缩后的贴纸状实体对检测器进行攻击,从而证明当前最新的物体检测算法仍然容易受到物理对抗样本的影响。
Dec, 2017
我们提出了一种方法,生成了对人类眼睛不可见的物理对抗样本。我们使用改变照射目标物体的光的方式,而不是通过贴纸或彩色物体来生成对抗样本,我们探究了如何使用红外光或者 LED 对图像实现攻击目标,实验中所得到的结果表明该方法具有较高的准确度。
Nov, 2020
对物理深度学习算法模型的物理攻击,提出了 Disappearance Attack 和 Creation Attack 进行检测,结果表明存在风险,攻击模型具有可迁移性
Jul, 2018
本文提出了一种利用光影对深度学习图像分类系统进行物理攻击的方法,通过实验发现选择不同的光影模式可以使得 2D 和 3D 物体的分类精度大幅降低。
Oct, 2018
本文研究了利用自然现象 —— 影子生成干扰以实现自然和偷偷摸摸的物理世界对抗攻击的新型光学对抗样本,并在模拟和真实环境下进行了广泛评估,结果表明此攻击的成功率达到了 98.23% 和 90.47%,而且可以在真实场景下连续欺骗移动摄像机 95% 以上的时间。
Mar, 2022
该研究介绍了一种通用的攻击算法,RP2,用于在不同的物理条件下产生强大的视觉对抗扰动,以及一种用于评估物理对抗性的两阶段评估方法,通过黑白贴纸形式的扰动对真实的红绿灯进行攻击,在实验室测试和场地测试结果分别达到 100% 和 84.8% 的目标分类器的误分率。
Jul, 2017
本文回顾了最近在物理对抗攻击方面的尝试和发现,并提出了一种框架来分析物理对抗攻击,并在该框架下对四个关键监控任务:检测,识别,跟踪和动作识别进行了全面的调查。此外,我们还回顾并分析了防御物理对抗攻击的策略和评估防御优势的方法。这篇论文为在监控系统中建立抵抗物理对抗攻击的韧性迈出了重要一步。
May, 2023
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023