本研究提出了一种新颖的多模态预测算法,采用混合学习架构来分析环境的视觉特征和场景动态,预测行人的未来横穿行为,并在现有 2D 行人行为基准和新的 3D 驾驶数据集上进行评估,取得了最先进的表现。
Nov, 2020
研究人员通过使用多任务网络和注意力关系网络,成功预测了未来行人动作,并将该预测作为先验来检测当前意图和行为,从而显着提高了交通安全性。
May, 2021
本文提出了一种基于场景进行评估的新模式,以评估自主行驶系统中行人轨迹预测算法的挑战,并通过实证评估在多模态来源数据的融合和有效的分层方式下取得了显著的改进。
Oct, 2023
本论文介绍了一种基于条件变分自编码器的双向多模态轨迹预测方法 BiTraP,该方法采用目标条件化方法和双向编 / 解码器结构以提高长期轨迹预测准确性,其在第一人称视角和鸟瞰视角均表现良好,比最先进的轨迹预测方法提高了约 10-50%。研究还发现,CVAE 中的目标模型对预测的多模态轨迹分布产生直接影响,这为碰撞回避和导航系统等机器人应用的轨迹预测器设计提供了指导。
Jul, 2020
我们提出了一种新颖的解决方案,用于预测行人的未来轨迹。我们的方法使用多模态编码 - 解码变换器架构,以行人位置和自车速度作为输入。值得注意的是,我们的解码器一次性预测整个未来轨迹,而不进行一步预测,这使得该方法适用于嵌入式边缘部署。我们在两个流行数据集 PIE 和 JAAD 上进行了详细实验和评估,定量结果证明我们所提出的模型在 0.5、1.0 和 1.5 秒三个时间范围内始终具有最低误差,并且相对于现有最先进技术的速度更快。此外,消融实验证明了我们方法的关键多模态配置的影响。
Jul, 2023
本文提出了一种行人轨迹预测的新方法,称为 BA-PTP,利用行人的行为特征,通过摄像头上获取的视觉观察进行预测。通过融合不同的输入流和注意机制,产生最终的嵌入表达,用于预测图像中的未来边界框。在两个行人行为预测数据集的实验中,论文展示了利用行为特征进行行人轨迹预测的好处,并通过消融实验研究了不同行为特征对预测性能的影响。
Oct, 2022
从意图估计、行为预测和事件风险评估三个不同任务的角度探讨行人行为理解问题,并提出了一个基于这些定义、可用注释和三类新指标的新基准,用于评估模型性能。
Jun, 2024
研究 AV 预测行人短期和即时行为的不足,提出了一种基于 TF-ed 架构的新型多任务序列到序列解码器,用于只使用自车摄像机观测作为输入的行人动作和轨迹预测。在公开可用的 JAAD 数据集、CARLA 仿真数据以及校园实时无人驾驶班车数据上评估该方法,结果显示该方法在 JAAD 测试数据上的行为预测任务准确率为 81%,优于 LSTM-ed 7.4%,然而 LSTM 的姊妹机在长度为 25 帧的预测序列任务中表现更好。
May, 2023
本研究开发了一种预测多个行人之间交互的模型,采用了博弈论和基于深度学习的视觉分析相结合的方法,可以更好地解释人类的互动,相比现有技术的最先进方法提升 25% 的预测精度。
Apr, 2016
本文提出了基于图卷积的框架,通过构建场景图并在场景内计算对象之间的空时关系,从两个不同角度进行了预测行人是否穿过街道的实验,并提供了一种用于自主驾驶系统在高密度行人区进行行人意图预测的新数据集,实验结果表明我们的方法能够以精度高于现有方法的 79.1%(STIP 数据集)和 79.28%(JAAD 数据集)的准确度预测行人的意图。
Feb, 2020