自动驾驶中基于 LiDAR 的感知的鲁棒性:普遍的黑匣子对抗传感器攻击及对策
本文对自动驾驶汽车中基于 LiDAR 传感器的感知系统进行了首次安全研究,将 LiDAR 欺骗攻击作为威胁模型,并探索了机器学习模型欺骗攻击的可能性,提出了优化方法和算法,同时讨论了针对自动驾驶汽车感知系统、传感器和机器学习模型的防御方向。
Jul, 2019
本文研究了自动驾驶多模态感知系统在受到对抗性攻击时的鲁棒性问题,揭示了通过添加物理对抗性物体来隐藏不同车辆的可能性,并提出使用特征去噪的对抗性训练方法可以显著提高系统鲁棒性。
Jan, 2021
通过对无人车的轨迹进行微小干扰,恶意攻击者能够对深度学习网络中的运动补偿机制进行攻击,破坏无人车对安全关键物体的探测。多项实验表明,这种攻击手段不仅能够有效降低现有最优检测器的性能,而且还具有较强的通用性。
Mar, 2021
该研究从激光雷达感知到预测车辆轨迹的角度进行了首次安全分析,提出了一种间接攻击方法,通过对受害者自动驾驶车辆的感知模块进行攻击来诱导轨迹预测错误,以实现可行的、单点式的攻击。实验结果表明,该攻击方法能导致高达 63%的碰撞率和各种危险情况,为自动驾驶的轨迹预测提供了现实的安全威胁。
Jun, 2024
本文提出了一种生成通用三维对抗目标的方法,用以干扰自动驾驶系统中激光雷达探测器,这一方法成功率高达 80%,并开展了一些防御研究,旨在建立更安全可靠的自动驾驶系统。
Apr, 2020
本研究评估了 LiDAR - 相机融合模型在 3D 物体检测中的对抗鲁棒性。我们介绍了一种攻击技术,在汽车上简单添加一定数量的物理限制的对抗点后,可以使车辆在融合模型中无法检测到。实验结果表明,即使在图像数据通道没有变化的情况下,通过操纵 LiDAR 数据通道,融合模型仍然可以被欺骗。这一发现引发了自动驾驶领域的安全担忧。此外,我们还研究了对抗点数量、前方近处车辆与搭载 LiDAR 的车辆之间的距离以及不同角度因素对攻击成功率的影响。我们相信我们的研究可以增进对多传感器鲁棒性的理解,为增强自动驾驶的安全性提供见解和指导。
Dec, 2023
本文揭示了基于 LiDAR 的自动驾驶检测系统的潜在漏洞,并通过 LiDAR-Adv 的优化方法生成逃避 LiDAR 检测系统的对抗性物体,并在百度 Apollo 自动驾驶平台上测试和 3D 打印这些物体以证明实际世界中的存在性。
Jul, 2019
本文针对现代自动驾驶采用的多传感器融合设计方案的安全问题进行研究,旨在探究该方案在多源攻击下的安全性。作者提出一种优化攻击方法,生成一种 3D 打印的欺骗物,用于误导自动驾驶系统,测试结果表明该攻击方法能够在真实世界驾驶场景中达到超过 90%的成功率,并在硬件捕捉后仍是真实可行的。
Jun, 2021
本文提出了一种针对 3D 物体探测器在自动驾驶系统中受到攻击的解决方案,包括一个基于深度信息的局部物体检测器,能检测出数据中虚假的汽车,并且有效消除了 70% 以上的出现攻击,同时比旧有方法更加有效,在 Baidu 的 Apollo 系统中得到了验证。
Mar, 2023
通过量化连续帧之间的时间一致性并基于点簇的连贯性来识别异常对象,我们提出了一个名为 ADoPT(基于点级时间一致性的异常检测)的新框架,优于现有的最先进的防御方法 CARLO 和 3D-TC2,有效地对抗各种 LiDAR 欺骗攻击,在各种道路环境中实现低(<10%)误报率(FPR)和高(> 85%)真阳率(TPR),同时证明了准确的攻击检测的潜力。
Oct, 2023