面向深度神经网络的无感 CMOS 相机迷惑对抗攻击
我们提出了一种方法,生成了对人类眼睛不可见的物理对抗样本。我们使用改变照射目标物体的光的方式,而不是通过贴纸或彩色物体来生成对抗样本,我们探究了如何使用红外光或者 LED 对图像实现攻击目标,实验中所得到的结果表明该方法具有较高的准确度。
Nov, 2020
提出了基于 LED 照明调制的实用、可执行、不引人注目和低计算的对抗攻击方法,用于愚弄人脸识别系统,成功率分别达到 97.67%、100% 和 100% 的 DoS 攻击。
Jul, 2023
本文主要研究了利用对摄像头物理操纵的方式实施对深度神经网络的物理对抗攻击,并提出了一种迭代的攻击方法,可以使攻击不易被察觉,实现了针对 ImageNet 分类器的 49.6% 的攻击成功率。
Mar, 2019
使用 EvilEye 攻击的动态物理对抗样本生成方法在各种环境光照条件下更加稳健,并能绕过最新的物理对抗检测框架,为攻击者提供了适应多种物体的对抗样本的动态能力。最后,我们探讨了对抗 EvilEye 攻击的缓解策略。
Jul, 2023
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
本文研究了利用自然现象 —— 影子生成干扰以实现自然和偷偷摸摸的物理世界对抗攻击的新型光学对抗样本,并在模拟和真实环境下进行了广泛评估,结果表明此攻击的成功率达到了 98.23% 和 90.47%,而且可以在真实场景下连续欺骗移动摄像机 95% 以上的时间。
Mar, 2022
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
本文提出了一种高效的基于注意力机制的防御方法,利用对抗通道注意力快速识别和追踪浅层网络中的恶意对象,并在多帧情景中遮蔽它们的对抗影响。该方法提升了现有超激活技术在现实世界的对抗攻击中的效果,并引入了一个高效的多帧防御框架,通过广泛实验评估了其防御性能和计算成本。
Nov, 2023