基于标准化 LSTM 和层级相关传播的数字孪生道路可解释的在线变道预测
本章节探究如何使 Layer-wise Relevance Propagation (LRP) 技术适用于序列数据建模和预测所使用的 LSTM 架构,需要更新传播方案并扩展基础理论框架以提供准确的解释。
Sep, 2019
为了在动态环境下保证安全驾驶,自动驾驶车辆应该具备准确预测周围车辆的变道意图并预测其未来轨迹的能力。本文通过提出了一种可解释的变道预测模型 LC-LLM,利用大型语言模型(LLM)的强大推理能力和自我解释能力来解决现有运动预测方法在长期预测精度和可解释性方面的不足。我们将变道预测任务重新定义为语言建模问题,将异构驾驶场景信息以自然语言形式作为 LLM 的输入,并采用监督微调技术,使 LLM 专门用于变道预测任务。这使得我们能够利用 LLM 强大的常识推理能力来理解复杂的交互信息,从而提高长期预测的准确性。此外,我们在推理阶段的提示中加入了解释要求。因此,我们的 LC-LLM 模型不仅可以预测变道意图和轨迹,还能提供预测解释,增强了可解释性。对大规模高维驱动数据集的广泛实验证明了我们的 LC-LLM 在变道预测任务中的卓越性能和可解释性。据我们所知,这是首次尝试利用 LLM 来预测变道行为。我们的研究表明,LLM 能够对驾驶行为进行综合交互信息编码。
Mar, 2024
自动驾驶技术能够提高交通安全和减少事故,本研究提出了基于短期记忆 (LSTM) 网络的安全敏感深度学习模型来预测轨迹,通过考虑交互信息的意图识别模块,实现高准确性和流畅性的车道变换,并优化自动驾驶轨迹规划。
Feb, 2024
本文提出了将 Layer-wise Relevance Propagation 扩展到递归神经网络的方法,并应用于五分类情感预测任务中的双向 LSTM 模型,其结果 qualitatively and quantitatively 均优于之前工作中使用的基于梯度的方法。
Jun, 2017
本文研究探讨了解释型人工智能(XAI)中的一种常用方法 —— 层级相关性传递(LRP),发现新的应用方式能够更好地表征模型的推理,同时提高 LRP 的对象定位和类别区分性。
Oct, 2019
通过关注机制和 LSTM 网络,该文研究了自动驾驶车辆中驾驶员意图与车辆位置变化的关系,并将其用于预测,采用非欧几里得图形和图神经网络等处理方式比其他最先进技术表现更好,此模型具有很大的实用潜力并可大规模应用于许多自动驾驶系统。
Sep, 2019
本文提出了一种基于 LSTM 神经网络对高速公路行驶中的车辆进行准确的纵向和横向轨迹预测方法,同时使用 NGSIM US-101 数据集中来自超过 6000 名司机的 800 小时记录轨迹进行训练和验证。
Jan, 2018
本文提出了一种基于多任务学习的 LC 意图识别和状态预测模型,提高了 LC 意图分类的准确率并给出了一种实现自动驾驶车辆辨别车道变更行为、计算实时交通冲突指数并改善车辆控制策略的方法。
Apr, 2023
这项研究介绍了一种基于 TP-LLM 的可解释交通预测方法,通过将多模态因素作为语言输入统一起来,避免了复杂的时空数据编程,证明了大语言模型在交通预测方面的潜力。
Apr, 2024
本文通过使用层级相关传播方法(Layer-wise Relevance Propagation, LRP)对深度神经网络的知识追踪模型进行解释,以提高模型的可解释性,并验证了分别从问题层面和概念层面计算相关评分的可行性,从而推进深度学习的知识追踪模型在教育领域中的实际应用。
May, 2020