StretchBEV: 空间和时间地拉伸的未来实例预测
为了预测智能与健壮的复杂动态环境下未来的多个目标路径,该论文提出了基于概率的框架来学习表示语义多模态未来的潜在变量,其中利用动态基于注意力的状态编码器学习编码智能体之间的交互,可被用于车辆轨迹预测。
Nov, 2019
该研究旨在通过预测编码的概念以及诸如自动驾驶车辆之类的机器人应用,探索基于过去条件下生成未来传感器观测的任务。研究重点在于解决多模态未来视频建模的挑战,并利用图像扩散模型的大规模预训练来处理计算代价昂贵的视频处理问题。通过时间戳条件生成更好的采样计划,实验结果证明了学习以时间戳为条件和预测使用不变模态的重要性。
Apr, 2024
基于多个深度学习技术的视觉感知线路预测系统可用于自动驾驶车辆,通过管辖车辆分割和自车轨迹预测的联合任务,综合表示周围车辆的鸟瞰视角并使用时空概率网络进行轨迹预测。
Dec, 2023
本研究提出了一种集成的三维图形方法,将空间和时间信息融合在一起,并考虑跨时间的交互信息,以更准确地预测车辆轨迹。实验证明,该方法在长时间范围的轨迹预测中表现优于其他基线方法。
Nov, 2023
通过将历史线索整合到当前 BEV 地图中,TempCoBEV 能够在协作感知中改进 BEV 地图分割的质量和可靠性。在 OPV2V 数据集上进行的广泛实验表明,TempCoBEV 在预测当前和未来的 BEV 地图分割方面比非时态模型表现更好,特别是在涉及通信故障的情景中,其整合历史线索到当前 BEV 地图的能力使预测结果在最佳通信条件下提高 2%,在通信故障下提高 19%。
Jan, 2024
本文提出了新的 BEVFormer 框架,该框架学习使用时空变形器的统一 BEV 表示,以支持多个自主驾驶感知任务。在 nuScenes 测试集中,该方法达到了 56.9%的最新技术水平,且在低能见度条件下显着提高了速度估计和对象召回的准确性。
Mar, 2022
在自动驾驶和机器人技术中,利用短期历史数据增强多摄像头 3D 物体检测的兴趣日益增长,通过利用输入视频流的连续且相关性质来实现。最近的研究集中在基于 BEV(鸟瞰图)的特征在时间步内的空间对齐上。然而,由于长期过去的观测没有良好的扩展效果,这方面的工作通常受限。为了解决这个问题,我们提出了一种名为 DAP(预测后检测)的模型,包括两个分支网络:(一)一个分支负责根据过去的观测预测当前物体的位置,(二)另一个分支基于当前和过去的观测来检测物体。从分支(一)预测当前物体的特征被融合到分支(二)中以传递预测性知识。我们在大规模的 nuScenes 数据集上进行了广泛的实验,并观察到利用这种预测信息显著提高了整体检测性能。我们的模型可以即插即用,表现出一致的性能提升。
Apr, 2024
该论文提出了名为 POWERBEV 的高效新型端到端框架,该框架依赖于平行的多尺度模块,通过流变换的后处理方法提高了 BEV 实例预测的稳定性,并在 NuScenes 数据集上表现出比现有方法更好的性能,为 BEV 实例预测提出了一种替代理念。
Jun, 2023
本文提出了将视频观察结果分解为静态和动态部分,分别建模于场景结构和车辆主体运动、动态物体运动,来分离结构和运动的影响,从而更好地预测复杂驾驶场景中的未来运动。
Mar, 2022