本文使用基于深度学习的对抗光投影攻击系统在人脸识别领域进行了实时物理攻击的实验,证实了人脸识别系统在白盒和黑盒攻击设置下均易受到对抗攻击的威胁。
Mar, 2020
本文主要研究了利用对摄像头物理操纵的方式实施对深度神经网络的物理对抗攻击,并提出了一种迭代的攻击方法,可以使攻击不易被察觉,实现了针对 ImageNet 分类器的 49.6% 的攻击成功率。
Mar, 2019
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
本篇研究论文主要探讨了如何有效防御基于图像分类的深度神经网络攻击。通过研究两种最常见的防御方法,我们发现这些方法对于三种最高危物理攻击的防御效果较差。因此我们提出了一种新的抽象对抗模型,矩形遮挡攻击,并且开发了两种计算结果的对抗样本的方法。最后,我们通过新的模型进行对抗训练,证明了这一方法是一种高效的通用防御策略。
Sep, 2019
对物理深度学习算法模型的物理攻击,提出了 Disappearance Attack 和 Creation Attack 进行检测,结果表明存在风险,攻击模型具有可迁移性
Jul, 2018
我们提出了一种方法,生成了对人类眼睛不可见的物理对抗样本。我们使用改变照射目标物体的光的方式,而不是通过贴纸或彩色物体来生成对抗样本,我们探究了如何使用红外光或者 LED 对图像实现攻击目标,实验中所得到的结果表明该方法具有较高的准确度。
Nov, 2020
本研究基于对已有测试结果的分析,设计一种算法,可以产生压缩后的贴纸状实体对检测器进行攻击,从而证明当前最新的物体检测算法仍然容易受到物理对抗样本的影响。
Dec, 2017
使用激光束进行的物理攻击可以欺骗深度神经网络,导致预测错误,这种实验室攻击是实际环境中对深度神经网络安全性的威胁。
Mar, 2021
本文研究了利用自然现象 —— 影子生成干扰以实现自然和偷偷摸摸的物理世界对抗攻击的新型光学对抗样本,并在模拟和真实环境下进行了广泛评估,结果表明此攻击的成功率达到了 98.23% 和 90.47%,而且可以在真实场景下连续欺骗移动摄像机 95% 以上的时间。
Mar, 2022
本文针对深度神经网络生成对抗样本的问题展开了研究,提出了针对 3D 物理性质改变的对抗样本生成方法,并通过在 2D 输入图像前增加可渲染模块的方式,成功地将对抗扰动提升到物理空间,检验了所设计的方法的有效性。
Nov, 2017