针对基于 LiDAR 的自动驾驶系统的对抗性物体
本文提出了一种生成通用三维对抗目标的方法,用以干扰自动驾驶系统中激光雷达探测器,这一方法成功率高达 80%,并开展了一些防御研究,旨在建立更安全可靠的自动驾驶系统。
Apr, 2020
本文对自动驾驶汽车中基于 LiDAR 传感器的感知系统进行了首次安全研究,将 LiDAR 欺骗攻击作为威胁模型,并探索了机器学习模型欺骗攻击的可能性,提出了优化方法和算法,同时讨论了针对自动驾驶汽车感知系统、传感器和机器学习模型的防御方向。
Jul, 2019
本研究评估了 LiDAR - 相机融合模型在 3D 物体检测中的对抗鲁棒性。我们介绍了一种攻击技术,在汽车上简单添加一定数量的物理限制的对抗点后,可以使车辆在融合模型中无法检测到。实验结果表明,即使在图像数据通道没有变化的情况下,通过操纵 LiDAR 数据通道,融合模型仍然可以被欺骗。这一发现引发了自动驾驶领域的安全担忧。此外,我们还研究了对抗点数量、前方近处车辆与搭载 LiDAR 的车辆之间的距离以及不同角度因素对攻击成功率的影响。我们相信我们的研究可以增进对多传感器鲁棒性的理解,为增强自动驾驶的安全性提供见解和指导。
Dec, 2023
本文通过实验表明,目前物理对抗样本的构造不能影响到从不同距离和角度的拍摄图像,因为对抗扰动的特性对观察图像的尺度非常敏感,因此自动车只会从小范围内的距离错判停止标志。此外,研究还提出了:是否可以构造对许多或大多数观看条件都具有对抗性的例子,若能,则该构造应该对深度网络的模式内部表示提供非常重要的见解。
Jul, 2017
该研究探讨了自动驾驶系统对物理对抗攻击(胶带、涂鸦、照明)的弹性,并通过开发和评估多个机器学习模型,对道路标志和几何形状进行了测试,结果表明迁移学习在提高道路标志分类的可泛化性方面发挥了关键作用。该研究旨在改善自动驾驶车辆中目标分类器的安全性和鲁棒性,减轻对驾驶系统的对抗性示例影响。
Nov, 2023
本文研究了自动驾驶多模态感知系统在受到对抗性攻击时的鲁棒性问题,揭示了通过添加物理对抗性物体来隐藏不同车辆的可能性,并提出使用特征去噪的对抗性训练方法可以显著提高系统鲁棒性。
Jan, 2021
通过在另一辆移动车辆上动态显示对抗性修补程序的屏幕,该研究介绍了一种攻击机制,旨在挑战自动驾驶系统的韧性。这种操纵对决策制定过程的方法对于交叉路口和变道等关键的多车辆交互非常重要,这对安全和高效的自动驾驶系统具有重大影响。
Dec, 2023
本研究使用简单的物理攻击,将黑线涂在路上,对自动驾驶的深度神经网络模型进行端对端的攻击,并探讨了针对直行的攻击与针对右转的攻击等场景的高度有效性。
Mar, 2019
通过对无人车的轨迹进行微小干扰,恶意攻击者能够对深度学习网络中的运动补偿机制进行攻击,破坏无人车对安全关键物体的探测。多项实验表明,这种攻击手段不仅能够有效降低现有最优检测器的性能,而且还具有较强的通用性。
Mar, 2021
人工智能和深度学习技术的迅速发展促进了自动驾驶系统,但是这些系统仍受到来自不同攻击的威胁。此研究调查了可能危及自动驾驶系统的各种攻击,以及相应的最新防御机制,从而提出了一些有前途的研究方向以提高自动驾驶的安全性。
Apr, 2021