大型轨迹模型是可扩展的运动预测与规划器
通过使用 Transformer 模型,本文提出一种名为 STT 的有状态跟踪模型,它能够可靠地跟踪三维空间中的对象,并精确预测它们的状态,以确保自动驾驶的安全。通过消耗检测历史记录中的丰富外观、几何和运动信号,STT 在数据关联和状态估计任务上进行联合优化,并通过引入新的 S-MOTA 和 MOTPS 指标来评估其综合性能。在 Waymo Open 数据集上,STT 实现了具有竞争力的实时性能。
Apr, 2024
使用 Transformer 技术,通过分析其注意机制并设计特定的预训练任务,可以学习车辆群体内轨迹的多样性,同时预训练模型在捕捉车辆群体的空间分布方面表现出色,并能准确预测时间序列中的轨迹速度。
Sep, 2023
我们提出了一种基于 transformers 和概率图模型的多个相互作用代理(道路用户)轨迹模拟方法,并将其应用于 Waymo SimAgents 挑战。我们的方法基于 MTR 模型,使用先验知识编码因子来生成并改进轨迹预测,该模型通过执行高斯牛顿方法的(近似)最大后验推理来采样数十个代理的未来轨迹。我们的方法名为 “模型预测模拟”(MPS),在安全关键指标(如碰撞率)方面改进了 MTR 基线,并且与任何潜在预测模型兼容,不需要额外的训练。
Jun, 2024
该研究提出了一种名为 PlanT 的新方法,使用标准的 Transformer 架构,通过紧凑的对象层输入表示进行模仿学习来进行自动驾驶的计划,可以更好地识别相关对象,结合现有的感知模块即可实现更优秀的驾驶性能。
Oct, 2022
提出了一种基于转换器的轨迹预测模型,通过社交张量将目标代理的位移特征丰富化,考虑和周围代理的社交互动信息,以实现对周围代理的反应预测。
Jun, 2024
序列建模是跨多个领域的一个关键领域,包括自然语言处理、语音识别、时间序列预测、音乐生成和生物信息学。历史上,循环神经网络(RNNs)和长短时记忆网络(LSTMs)在机器翻译、命名实体识别等序列建模任务中占主导地位,但转换器的进步改变了这一范式,因为其性能更优越。然而,转换器面临 O (N^2) 注意力复杂度和处理归纳偏差的挑战。各种改进方法已被提出来应对这些问题,其中使用频谱网络或卷积在一些任务上表现良好,但仍然难以处理长序列。状态空间模型(SSMs)已经成为此背景下序列建模范式的有希望的可替代选择,特别是随着 S4 及其变种(如 S4nd、Hippo、Hyena、Diagnol State Spaces(DSS)、Gated State Spaces(GSS)、Linear Recurrent Unit(LRU)、Liquid-S4、Mamba 等)的出现。本综述将基于门控结构、结构体系和循环结构对基础 SSMs 进行分类,还重点介绍了 SSMs 在视觉、视频、音频、语音、语言(特别是长序列建模)、医疗(包括基因组学)、化学(如药物设计)、推荐系统和时间序列分析等领域的不同应用。此外,我们总结了 SSMs 在长序列竞技场(LRA)、WikiText、Glue、Pile、ImageNet、Kinetics-400、sstv2 以及早餐、硬币、LVU 等各种时间序列数据集上的性能。有关 Mamba-360 工作的项目页面可在此网页上找到:https://github.com/badripatro/mamba360。
Apr, 2024
本文提出了一种解决多模态数据和场景下多主体交互的轨迹预测问题的方法,使用 convLSTM 结合 CVAE 进行多样性预测,通过多元化的数据集模拟,取得了比现有方法更好的效果
Jul, 2020
本文研究了采用 Transformer Networks 进行轨迹预测,提出了简单模型每个人单独建模的方法,发现使用 Transformers 可以处理现实传感器数据中缺失的观测值,并在轨迹预测基准测试上取得了最好的分数。
Mar, 2020
基于 LSTM 模型及人际交互、过往观测、周围空间语义等多重因素,预测人在城市场景中的运动方向的方法在测试中证明比传统 LSTM 模型准确,成为开发自动驾驶车辆与社交性机器人必不可少的一步。
Sep, 2019