针对端到端自动驾驶模型的简易物理对抗样本
本文研究自动驾驶车辆中基于深度学习的对抗攻击,通过在路面上绘制黑色线条,实现对深度神经网络模型的干扰,并提出了一种新的高效攻击方式。同时,定义了新的路径劫持攻击,并通过 Bayesian Optimization 技术实现了对高维度攻击范围的搜索,最终提供了对攻击成功的洞察。
Oct, 2019
本文通过实验表明,目前物理对抗样本的构造不能影响到从不同距离和角度的拍摄图像,因为对抗扰动的特性对观察图像的尺度非常敏感,因此自动车只会从小范围内的距离错判停止标志。此外,研究还提出了:是否可以构造对许多或大多数观看条件都具有对抗性的例子,若能,则该构造应该对深度网络的模式内部表示提供非常重要的见解。
Jul, 2017
人工智能和深度学习技术的迅速发展促进了自动驾驶系统,但是这些系统仍受到来自不同攻击的威胁。此研究调查了可能危及自动驾驶系统的各种攻击,以及相应的最新防御机制,从而提出了一些有前途的研究方向以提高自动驾驶的安全性。
Apr, 2021
本文针对自主驾驶感知任务中的多任务视觉感知深度网络,进行了细致的对抗攻击研究,并提出了简单的防御方法。实验考虑了针对性和非针对性的白盒和黑盒攻击,以及在攻击一个任务时检查对其他任务的影响,同时还检查了应用简单防御方法的效果。最后通过对实验结果进行比较和讨论,提出了一些结论和未来研究方向。
Jul, 2021
通过在另一辆移动车辆上动态显示对抗性修补程序的屏幕,该研究介绍了一种攻击机制,旨在挑战自动驾驶系统的韧性。这种操纵对决策制定过程的方法对于交叉路口和变道等关键的多车辆交互非常重要,这对安全和高效的自动驾驶系统具有重大影响。
Dec, 2023
本文研究通过不同攻击方法,包括黑盒攻击,来制造可以用于在不同环境中欺骗系统的扰动,并展示可靠的物理对抗攻击可以使用不同的方法进行执行,同时也可以降低扰动的可察觉程度。该发现强调了即使在黑盒情况下,需要通过可行的方法保护 DNN 的需求,同时也为使用对抗攻击增强原始训练数据的方法提供了基础。
Feb, 2023
本文揭示了基于 LiDAR 的自动驾驶检测系统的潜在漏洞,并通过 LiDAR-Adv 的优化方法生成逃避 LiDAR 检测系统的对抗性物体,并在百度 Apollo 自动驾驶平台上测试和 3D 打印这些物体以证明实际世界中的存在性。
Jul, 2019
该研究介绍了一种通用的攻击算法,RP2,用于在不同的物理条件下产生强大的视觉对抗扰动,以及一种用于评估物理对抗性的两阶段评估方法,通过黑白贴纸形式的扰动对真实的红绿灯进行攻击,在实验室测试和场地测试结果分别达到 100% 和 84.8% 的目标分类器的误分率。
Jul, 2017
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
该研究探讨了自动驾驶系统对物理对抗攻击(胶带、涂鸦、照明)的弹性,并通过开发和评估多个机器学习模型,对道路标志和几何形状进行了测试,结果表明迁移学习在提高道路标志分类的可泛化性方面发挥了关键作用。该研究旨在改善自动驾驶车辆中目标分类器的安全性和鲁棒性,减轻对驾驶系统的对抗性示例影响。
Nov, 2023