LiDAR 物体检测可实现的对抗样本
本文揭示了基于 LiDAR 的自动驾驶检测系统的潜在漏洞,并通过 LiDAR-Adv 的优化方法生成逃避 LiDAR 检测系统的对抗性物体,并在百度 Apollo 自动驾驶平台上测试和 3D 打印这些物体以证明实际世界中的存在性。
Jul, 2019
本文研究了自动驾驶多模态感知系统在受到对抗性攻击时的鲁棒性问题,揭示了通过添加物理对抗性物体来隐藏不同车辆的可能性,并提出使用特征去噪的对抗性训练方法可以显著提高系统鲁棒性。
Jan, 2021
本研究评估了 LiDAR - 相机融合模型在 3D 物体检测中的对抗鲁棒性。我们介绍了一种攻击技术,在汽车上简单添加一定数量的物理限制的对抗点后,可以使车辆在融合模型中无法检测到。实验结果表明,即使在图像数据通道没有变化的情况下,通过操纵 LiDAR 数据通道,融合模型仍然可以被欺骗。这一发现引发了自动驾驶领域的安全担忧。此外,我们还研究了对抗点数量、前方近处车辆与搭载 LiDAR 的车辆之间的距离以及不同角度因素对攻击成功率的影响。我们相信我们的研究可以增进对多传感器鲁棒性的理解,为增强自动驾驶的安全性提供见解和指导。
Dec, 2023
通过对无人车的轨迹进行微小干扰,恶意攻击者能够对深度学习网络中的运动补偿机制进行攻击,破坏无人车对安全关键物体的探测。多项实验表明,这种攻击手段不仅能够有效降低现有最优检测器的性能,而且还具有较强的通用性。
Mar, 2021
本文对自动驾驶汽车中基于 LiDAR 传感器的感知系统进行了首次安全研究,将 LiDAR 欺骗攻击作为威胁模型,并探索了机器学习模型欺骗攻击的可能性,提出了优化方法和算法,同时讨论了针对自动驾驶汽车感知系统、传感器和机器学习模型的防御方向。
Jul, 2019
本论文通过对点云模型的对抗攻击提出了全新的统一公式,此方法可以攻击分类模型的功能,考虑到攻击点的感知能力,并确保最小程度上的点操作,实验证明此方法在合成数据和真实数据上均取得了超过 89% 和 90% 的攻击成功率,并仅操作了总点数约 4%。
Aug, 2020
该论文通过第一次研究探索了当前利用 LiDAR 技术的自动驾驶系统的漏洞,并提出了 CARLO 和 SVF 两种方法用于检测和减轻 LiDAR 攻击,其中 SVF 进一步降低了攻击成功率。
Jun, 2020
本文通过对点云几何层级的研究,首次探讨了如何针对几何级别进行对抗例子的攻击,进而改变重构后的几何形状,而非单纯改变分类器的预测结果。此外,作者还展示了该攻击在防御方面的鲁棒性。
Dec, 2020
本文提出了一种针对 3D 物体探测器在自动驾驶系统中受到攻击的解决方案,包括一个基于深度信息的局部物体检测器,能检测出数据中虚假的汽车,并且有效消除了 70% 以上的出现攻击,同时比旧有方法更加有效,在 Baidu 的 Apollo 系统中得到了验证。
Mar, 2023
本文旨在综述目前关于点云分类中的对抗攻击和防御技术的进展,包括对对抗攻击的原理和特点、最近几年的对抗攻击示例生成方法的总结和分析以及防御策略的分类(包括输入变换、数据优化和深度模型修改)。最后,本文阐述了这一领域中几个具有挑战性的问题和未来的研究方向。
Jul, 2023