仅欺骗检测不足以:首个针对多目标跟踪的对抗攻击
本文提出了一种系统的流程来逆置真实世界物体探测器的健壮身体对抗性,通过扩展图像变换的分布,设计各种攻击向量和考虑各种不同的环境因素,生成的物理例外能够有效地欺骗 YOLO v5 基于 TSR 系统的其他最新物体探测器,并做出了基于图像预处理、AEs 检测和模型增强三种防御机制的讨论。
Jan, 2022
本文主要研究了针对神经网络分类器的测试时间攻击检测方法,并在不同数据集和场景下提供了八种最先进的检测器的实验结果,为此研究方向提供了挑战和未来的展望。
May, 2021
本研究提出了第一种实时在线攻击物体检测模型的方法,通过构造虚假物品边界框等三种攻击方式对物体检测模型进行攻击,成功率高达 90%,适用于动态环境中,并提供了演示视频。
Sep, 2022
本研究提出了一种针对实时目标检测器的建设鲁棒且实用的 AE 系统解决方案,包括针对 HA 的 FIR 方法和 ERG 增强鲁棒性,以及针对 AA 的嵌套 AE,可攻击不同距离和角度下的检测器。实验表明,我们的 AE 系统的攻击成功率可以达到 92.4%,并且可攻击另外三种黑盒模型。
Dec, 2018
本文针对自主驾驶感知任务中的多任务视觉感知深度网络,进行了细致的对抗攻击研究,并提出了简单的防御方法。实验考虑了针对性和非针对性的白盒和黑盒攻击,以及在攻击一个任务时检查对其他任务的影响,同时还检查了应用简单防御方法的效果。最后通过对实验结果进行比较和讨论,提出了一些结论和未来研究方向。
Jul, 2021
介绍了一种新型的物理世界对抗贴片攻击 (ControlLoc),利用两阶段过程,通过识别最佳位置生成贴片,修改感知到的物体位置和形状,在不同条件下以卓越的攻击成功率 (98.1%) 攻击自动驾驶视觉感知,比现有的劫持攻击有效性提高四倍,且在实际车辆测试中达到 77.5% 的攻击成功率,评估了 AD 系统的影响如车辆碰撞率和不必要的紧急停车率 (81.3%)。
Jun, 2024
本文提出了一种多模态传感器模块化框架,用于实现在线多目标追踪,并对该方法进行了实验证明其在真实场景下对自主驾驶领域有重要的应用。
Feb, 2018
本文研究自动驾驶车辆中基于深度学习的对抗攻击,通过在路面上绘制黑色线条,实现对深度神经网络模型的干扰,并提出了一种新的高效攻击方式。同时,定义了新的路径劫持攻击,并通过 Bayesian Optimization 技术实现了对高维度攻击范围的搜索,最终提供了对攻击成功的洞察。
Oct, 2019
在实际场景中机器学习模型受到对抗性攻击的威胁时,对抗性贴纸充分展示了这种威胁的具体体现。多视角系统具有在复杂环境中结合多视角数据,从而实现可靠检测结果的能力,然而多视角系统对对抗性贴纸的脆弱性尚未得到充分研究。本文通过提出两种新的攻击方法来挑战之前对多视角系统的观测结果,并取得了令人满意的攻击成功率。
Nov, 2023
本文通过实验表明,目前物理对抗样本的构造不能影响到从不同距离和角度的拍摄图像,因为对抗扰动的特性对观察图像的尺度非常敏感,因此自动车只会从小范围内的距离错判停止标志。此外,研究还提出了:是否可以构造对许多或大多数观看条件都具有对抗性的例子,若能,则该构造应该对深度网络的模式内部表示提供非常重要的见解。
Jul, 2017