时间序列图像数据的对抗物理攻击检测
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
本文提出了一种高效的基于注意力机制的防御方法,利用对抗通道注意力快速识别和追踪浅层网络中的恶意对象,并在多帧情景中遮蔽它们的对抗影响。该方法提升了现有超激活技术在现实世界的对抗攻击中的效果,并引入了一个高效的多帧防御框架,通过广泛实验评估了其防御性能和计算成本。
Nov, 2023
本文研究通过不同攻击方法,包括黑盒攻击,来制造可以用于在不同环境中欺骗系统的扰动,并展示可靠的物理对抗攻击可以使用不同的方法进行执行,同时也可以降低扰动的可察觉程度。该发现强调了即使在黑盒情况下,需要通过可行的方法保护 DNN 的需求,同时也为使用对抗攻击增强原始训练数据的方法提供了基础。
Feb, 2023
本篇研究论文主要探讨了如何有效防御基于图像分类的深度神经网络攻击。通过研究两种最常见的防御方法,我们发现这些方法对于三种最高危物理攻击的防御效果较差。因此我们提出了一种新的抽象对抗模型,矩形遮挡攻击,并且开发了两种计算结果的对抗样本的方法。最后,我们通过新的模型进行对抗训练,证明了这一方法是一种高效的通用防御策略。
Sep, 2019
本文回顾了最近在物理对抗攻击方面的尝试和发现,并提出了一种框架来分析物理对抗攻击,并在该框架下对四个关键监控任务:检测,识别,跟踪和动作识别进行了全面的调查。此外,我们还回顾并分析了防御物理对抗攻击的策略和评估防御优势的方法。这篇论文为在监控系统中建立抵抗物理对抗攻击的韧性迈出了重要一步。
May, 2023
本研究提出了 DVS-Attacks 对 Spiking Neural Networks 实施隐蔽性并有效的对抗攻击方法,并指出 DVS 的噪声滤波器可用作对抗攻击的防御机制,实验结果表明,即使采取最佳噪声滤波器设置,DVS-Attacks 仍然成功地降低了 SNNs 的准确性。
Jul, 2021
通过自动生成对抗性图像的方式,本研究展示了面部认证系统在实际场景中对对抗性图像的脆弱性,并提出 AdvGen 作为一种自动化生成对抗网络来模拟打印和重放攻击,生成可以欺骗最新型 PAD 的对抗性图像,其攻击成功率高达 82.01%。本研究在四个数据集和十个最新型 PAD 上对 AdvGen 进行了广泛测试,并在真实的物理环境中进行了实验证明了攻击的有效性。
Nov, 2023
本文针对自主驾驶感知任务中的多任务视觉感知深度网络,进行了细致的对抗攻击研究,并提出了简单的防御方法。实验考虑了针对性和非针对性的白盒和黑盒攻击,以及在攻击一个任务时检查对其他任务的影响,同时还检查了应用简单防御方法的效果。最后通过对实验结果进行比较和讨论,提出了一些结论和未来研究方向。
Jul, 2021
该研究介绍了一种通用的攻击算法,RP2,用于在不同的物理条件下产生强大的视觉对抗扰动,以及一种用于评估物理对抗性的两阶段评估方法,通过黑白贴纸形式的扰动对真实的红绿灯进行攻击,在实验室测试和场地测试结果分别达到 100% 和 84.8% 的目标分类器的误分率。
Jul, 2017
本文全面调查了当前关注的物理对抗攻击趋势,详细解析物理对抗攻击的概念、特征和要求,探索其在不同应用中的目标任务下,包括分类、检测、人脸识别、语义分割和深度估计等,各种物理对抗攻击方法,并评估其有效性、隐蔽性和鲁棒性,讨论了当前挑战和未来研究方向,强调了增强防御机制、探索新的攻击策略、在不同应用领域评估攻击,以及建立物理对抗攻击的标准基准和评估准则的必要性。通过这个全面的调查,旨在为计算机视觉领域的研究人员、实践者和政策制定者提供有价值的资源,帮助他们全面了解物理对抗攻击,并促进鲁棒和安全的基于深度神经网络的系统的发展。
Aug, 2023