MobilBye:使用相机欺骗攻击 ADAS
该研究探讨了自动驾驶系统对物理对抗攻击(胶带、涂鸦、照明)的弹性,并通过开发和评估多个机器学习模型,对道路标志和几何形状进行了测试,结果表明迁移学习在提高道路标志分类的可泛化性方面发挥了关键作用。该研究旨在改善自动驾驶车辆中目标分类器的安全性和鲁棒性,减轻对驾驶系统的对抗性示例影响。
Nov, 2023
本文对自动驾驶汽车中基于 LiDAR 传感器的感知系统进行了首次安全研究,将 LiDAR 欺骗攻击作为威胁模型,并探索了机器学习模型欺骗攻击的可能性,提出了优化方法和算法,同时讨论了针对自动驾驶汽车感知系统、传感器和机器学习模型的防御方向。
Jul, 2019
通过在另一辆移动车辆上动态显示对抗性修补程序的屏幕,该研究介绍了一种攻击机制,旨在挑战自动驾驶系统的韧性。这种操纵对决策制定过程的方法对于交叉路口和变道等关键的多车辆交互非常重要,这对安全和高效的自动驾驶系统具有重大影响。
Dec, 2023
本文提出了一种系统的流程来逆置真实世界物体探测器的健壮身体对抗性,通过扩展图像变换的分布,设计各种攻击向量和考虑各种不同的环境因素,生成的物理例外能够有效地欺骗 YOLO v5 基于 TSR 系统的其他最新物体探测器,并做出了基于图像预处理、AEs 检测和模型增强三种防御机制的讨论。
Jan, 2022
本文揭示了基于 LiDAR 的自动驾驶检测系统的潜在漏洞,并通过 LiDAR-Adv 的优化方法生成逃避 LiDAR 检测系统的对抗性物体,并在百度 Apollo 自动驾驶平台上测试和 3D 打印这些物体以证明实际世界中的存在性。
Jul, 2019
该研究主要关注基于神经网络算法的分类器受到对抗性图像攻击的问题,研究了在实际生产环境下分类器遭到对抗性攻击的可能性,并提供了一个验证生产等级交通标志的对抗性攻击的流程。
Jun, 2019
本文介绍 DARTS(Deceiving Autonomous caRs with Toxic Signs)攻击,该攻击将有毒交通标志引入自动驾驶车辆的交通标志识别系统,包括 Out-of-Distribution 攻击和 Lenticular Printing 攻击,并在虚拟和实际世界中进行评估。结果表明,在黑盒和白盒威胁模型下,Out-of-Distribution 攻击可以优于 In-Distribution 攻击对抗对抗性训练防御。
Feb, 2018
自动驾驶中的感知是实现安全和可靠驾驶不可或缺的。然而,存在的研究仅在目标的 AI 组件级别进行攻击效果评估,而未考虑整个系统语义和上下文的影响。本研究首次对已有设计在现实自动驾驶背景下是否能有效实现系统级攻击效果进行了测量研究,并提出了一种新颖的系统驱动攻击设计 SysAdv,结果表明系统级效果能够显著改善。
Aug, 2023