通过对抗性轨迹扰动欺骗 LiDAR 感知
该研究从激光雷达感知到预测车辆轨迹的角度进行了首次安全分析,提出了一种间接攻击方法,通过对受害者自动驾驶车辆的感知模块进行攻击来诱导轨迹预测错误,以实现可行的、单点式的攻击。实验结果表明,该攻击方法能导致高达 63%的碰撞率和各种危险情况,为自动驾驶的轨迹预测提供了现实的安全威胁。
Jun, 2024
本文提出了一种生成通用三维对抗目标的方法,用以干扰自动驾驶系统中激光雷达探测器,这一方法成功率高达 80%,并开展了一些防御研究,旨在建立更安全可靠的自动驾驶系统。
Apr, 2020
该论文通过第一次研究探索了当前利用 LiDAR 技术的自动驾驶系统的漏洞,并提出了 CARLO 和 SVF 两种方法用于检测和减轻 LiDAR 攻击,其中 SVF 进一步降低了攻击成功率。
Jun, 2020
本文对自动驾驶汽车中基于 LiDAR 传感器的感知系统进行了首次安全研究,将 LiDAR 欺骗攻击作为威胁模型,并探索了机器学习模型欺骗攻击的可能性,提出了优化方法和算法,同时讨论了针对自动驾驶汽车感知系统、传感器和机器学习模型的防御方向。
Jul, 2019
本文揭示了基于 LiDAR 的自动驾驶检测系统的潜在漏洞,并通过 LiDAR-Adv 的优化方法生成逃避 LiDAR 检测系统的对抗性物体,并在百度 Apollo 自动驾驶平台上测试和 3D 打印这些物体以证明实际世界中的存在性。
Jul, 2019
本研究评估了 LiDAR - 相机融合模型在 3D 物体检测中的对抗鲁棒性。我们介绍了一种攻击技术,在汽车上简单添加一定数量的物理限制的对抗点后,可以使车辆在融合模型中无法检测到。实验结果表明,即使在图像数据通道没有变化的情况下,通过操纵 LiDAR 数据通道,融合模型仍然可以被欺骗。这一发现引发了自动驾驶领域的安全担忧。此外,我们还研究了对抗点数量、前方近处车辆与搭载 LiDAR 的车辆之间的距离以及不同角度因素对攻击成功率的影响。我们相信我们的研究可以增进对多传感器鲁棒性的理解,为增强自动驾驶的安全性提供见解和指导。
Dec, 2023
通过量化连续帧之间的时间一致性并基于点簇的连贯性来识别异常对象,我们提出了一个名为 ADoPT(基于点级时间一致性的异常检测)的新框架,优于现有的最先进的防御方法 CARLO 和 3D-TC2,有效地对抗各种 LiDAR 欺骗攻击,在各种道路环境中实现低(<10%)误报率(FPR)和高(> 85%)真阳率(TPR),同时证明了准确的攻击检测的潜力。
Oct, 2023
本文提出了一种针对 3D 物体探测器在自动驾驶系统中受到攻击的解决方案,包括一个基于深度信息的局部物体检测器,能检测出数据中虚假的汽车,并且有效消除了 70% 以上的出现攻击,同时比旧有方法更加有效,在 Baidu 的 Apollo 系统中得到了验证。
Mar, 2023
本研究分析了自主驾驶车辆轨迹预测的敌对鲁棒性并研究其是否仍可导致安全规划,提出一种新的敌对攻击方法来增加预测误差,并探讨了数据增强和轨迹平滑等可能的缓解技术。
Jan, 2022
本文研究了自动驾驶多模态感知系统在受到对抗性攻击时的鲁棒性问题,揭示了通过添加物理对抗性物体来隐藏不同车辆的可能性,并提出使用特征去噪的对抗性训练方法可以显著提高系统鲁棒性。
Jan, 2021