Mar, 2024

LC-LLM: 大型语言模型的可解释性变道意图和轨迹预测

TL;DR为了在动态环境下保证安全驾驶,自动驾驶车辆应该具备准确预测周围车辆的变道意图并预测其未来轨迹的能力。本文通过提出了一种可解释的变道预测模型 LC-LLM,利用大型语言模型(LLM)的强大推理能力和自我解释能力来解决现有运动预测方法在长期预测精度和可解释性方面的不足。我们将变道预测任务重新定义为语言建模问题,将异构驾驶场景信息以自然语言形式作为 LLM 的输入,并采用监督微调技术,使 LLM 专门用于变道预测任务。这使得我们能够利用 LLM 强大的常识推理能力来理解复杂的交互信息,从而提高长期预测的准确性。此外,我们在推理阶段的提示中加入了解释要求。因此,我们的 LC-LLM 模型不仅可以预测变道意图和轨迹,还能提供预测解释,增强了可解释性。对大规模高维驱动数据集的广泛实验证明了我们的 LC-LLM 在变道预测任务中的卓越性能和可解释性。据我们所知,这是首次尝试利用 LLM 来预测变道行为。我们的研究表明,LLM 能够对驾驶行为进行综合交互信息编码。