通过模块噪声攻击端到端自动驾驶
本研究使用简单的物理攻击,将黑线涂在路上,对自动驾驶的深度神经网络模型进行端对端的攻击,并探讨了针对直行的攻击与针对右转的攻击等场景的高度有效性。
Mar, 2019
本文研究自动驾驶车辆中基于深度学习的对抗攻击,通过在路面上绘制黑色线条,实现对深度神经网络模型的干扰,并提出了一种新的高效攻击方式。同时,定义了新的路径劫持攻击,并通过 Bayesian Optimization 技术实现了对高维度攻击范围的搜索,最终提供了对攻击成功的洞察。
Oct, 2019
本文针对三种自动驾驶模型,分析了五种对抗性攻击和四种防御方法的效果。实验证明,与分类模型类似,这些模型仍然非常容易受到对抗性攻击,因此实践中应该考虑到这一点。对于系统和中间件构建者,需要同时部署多种防御方法来获得对各种攻击的良好覆盖。同时也需要保护好模型的细节信息,以降低黑盒攻击的效果。如果计算资源允许,则建议使用复杂的架构模型,因为该模型比简单模型更具弹性,更能抵御对抗性攻击。
Feb, 2020
人工智能和深度学习技术的迅速发展促进了自动驾驶系统,但是这些系统仍受到来自不同攻击的威胁。此研究调查了可能危及自动驾驶系统的各种攻击,以及相应的最新防御机制,从而提出了一些有前途的研究方向以提高自动驾驶的安全性。
Apr, 2021
本文提出了一种优化型对抗攻击框架,旨在研究基于数据的轨迹预测系统的对抗鲁棒性。通过模拟实验,展示了该攻击框架可以有效地增加不同度量指标的预测误差,甚至可以导致自动驾驶汽车离开道路或与其他车辆碰撞。同时,本文还探讨并提出了一种对抗训练策略来减轻对抗攻击的影响。
Sep, 2022
本文概述了自动驾驶中深度学习安全技术的概念、发展和最新研究。我们简要介绍了自动驾驶系统中的深度学习框架和流程,重点讨论每个功能层中基于深度学习的自动驾驶系统所面临的潜在安全威胁。调查了最新攻击算法,揭示了潜在的风险。最后,我们对自动驾驶领域中的深度学习安全性进行了展望,并提出建立安全可靠的自动驾驶系统的建议。
Oct, 2022
通过在另一辆移动车辆上动态显示对抗性修补程序的屏幕,该研究介绍了一种攻击机制,旨在挑战自动驾驶系统的韧性。这种操纵对决策制定过程的方法对于交叉路口和变道等关键的多车辆交互非常重要,这对安全和高效的自动驾驶系统具有重大影响。
Dec, 2023
本研究调查了在越野自动驾驶领域中,语义分割模型对于对抗性输入扰动的脆弱性。尽管在一般条件下表现良好,但现有的最先进分类器经常容易受到(甚至是)轻微扰动的影响,最终导致高自信度的不准确预测。我们的研究旨在填补这一空白,通过研究非鲁棒特征对越野数据集中的对抗性攻击的影响,并比较不同分割网络架构对对抗性攻击的效果。为实现这一目标,我们创建了一个鲁棒数据集,其中只包含鲁棒特征,并在这个鲁棒化数据集上训练网络。我们对研究结果进行了定性和定量分析,这对于提高越野自动驾驶应用中机器学习模型的鲁棒性具有重要意义。此外,本工作通过评估分割输出的鲁棒性,为Unimog U5023自主机器人在复杂越野无结构环境中的安全导航做出了贡献。该代码公开可用于https://github.com/rohtkumar/adversarial_attacks_on_segmentation。
Feb, 2024
自主驾驶系统中广泛采用视觉基础模型,但这些模型容易受到对抗攻击,影响自动驾驶车辆的可靠性和安全性。为了解决这个挑战,我们提出了一种新颖的精确引导的对抗攻击框架,将精确掩蔽扰动攻击(PMP-Attack)和欺骗性文本补丁攻击(DTP-Attack)两个技术相结合。实验证明,PG-Attack成功欺骗了多种先进的多模型大型模型,包括GPT-4V、Qwen-VL和imp-V1。
Jul, 2024
本研究解决了端到端自主驾驶模型在面对对抗攻击时的脆弱性。提出了一种新颖的模块化自适应对抗训练方法(MA2T),通过模块化噪声注入和动态权重累积适应来增强模型的鲁棒性。实验结果表明,该方法在多种攻击下相对于其他基线表现出显著的性能提升,展现出良好的防御效果。
Sep, 2024