本文探讨了GAN在自动驾驶中的应用,着重讨论了先进的数据增强、损失函数学习、半监督学习等关键应用,并提出了需要解决的挑战和问题。
Feb, 2019
通过深度学习和计算机视觉技术,结合领域适应性实现驾驶行为几秒钟内的精准预测,提高驾驶辅助系统的性能和应用范围。
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
本研究针对自动驾驶相关的图像翻译任务,提出了一种基于准物理和数码的对抗扰动方法,有效地干扰了图像翻译模型的输出,揭示出其脆弱性和局限性,并通过改善网络的鲁棒性,进一步提高其性能和稳定性。
Jan, 2020
本文针对三种自动驾驶模型,分析了五种对抗性攻击和四种防御方法的效果。实验证明,与分类模型类似,这些模型仍然非常容易受到对抗性攻击,因此实践中应该考虑到这一点。对于系统和中间件构建者,需要同时部署多种防御方法来获得对各种攻击的良好覆盖。同时也需要保护好模型的细节信息,以降低黑盒攻击的效果。如果计算资源允许,则建议使用复杂的架构模型,因为该模型比简单模型更具弹性,更能抵御对抗性攻击。
Feb, 2020
本文提出了一种优化型对抗攻击框架,旨在研究基于数据的轨迹预测系统的对抗鲁棒性。通过模拟实验,展示了该攻击框架可以有效地增加不同度量指标的预测误差,甚至可以导致自动驾驶汽车离开道路或与其他车辆碰撞。同时,本文还探讨并提出了一种对抗训练策略来减轻对抗攻击的影响。
Sep, 2022
通过对环境增强的方式,本文研究了一种用于安全端到端驾驶的闭环对抗训练框架(CAT),通过训练代理程序处理动态生成的安全关键场景,以持续提高驾驶代理的安全性能。实验结果表明,经过CAT训练后,代理程序在回放日志和安全关键交通场景中能够实现卓越的驾驶安全性。
Oct, 2023
通过在另一辆移动车辆上动态显示对抗性修补程序的屏幕,该研究介绍了一种攻击机制,旨在挑战自动驾驶系统的韧性。这种操纵对决策制定过程的方法对于交叉路口和变道等关键的多车辆交互非常重要,这对安全和高效的自动驾驶系统具有重大影响。
Dec, 2023
提出了一种全新的物理对抗攻击框架:具身对抗攻击(Embodied Adversarial Attack),通过感知-决策-控制的具身智能范式,实时动态调整最佳攻击策略以提高现实世界中物理对抗攻击的鲁棒性,特别适用于自动驾驶等复杂场景。
本研究针对端到端自动驾驶模型在面对对抗性攻击时的安全漏洞进行深入探讨。通过模块噪声注入,本文提出了一种新型攻击方案,并在大规模实验中验证其优越性,旨在提高自动驾驶系统的安全性与可靠性。
Sep, 2024