基于时空图转换器网络的行人轨迹预测
提出了一种关注社交图转换网络的多模态轨迹预测方法,它结合了图卷积网络和 Transformer 网络,并通过生成稳定分辨率的伪图像来处理空时图,还设计了关注社交交互信息的模块。实验证明该模型在多个度量指标上最大限度地降低了位移误差,并显著减少碰撞的可能性,同时具备长时间预测的能力。
Dec, 2023
本文提出了一种基于时空图的长短期记忆神经网络,用于在拥挤环境中预测行人的轨迹,考虑与场景中的静态和动态元素的交互,结果表明,相比于其他方法,本方法在人类轨迹预测方面能够将平均位移误差(ADE)和最终位移误差(FDE)分别降低高达 55%和 61%。
Feb, 2019
该论文提出了一个图变换器结构来改进预测性能,捕捉数据集中不同场所和情景之间的差异,并设计了一种自注意机制和域适应模块来提高模型的泛化能力。此外,还引入了一种考虑跨数据集序列的额外指标用于训练和性能评估目的。使用 ETH 和 UCY 等流行的公共数据集验证和比较了所提出的框架,实验结果表明了我们提出的方案的改进性能。
Jan, 2024
本研究提出了一种新的框架,即 SpatioTemporal-Augmented gRaph 神经网络(STAR),以建模地点的动态时空影响和优化人类移动轨迹的生成过程,结果优于现有最先进的方法。
Jun, 2023
本文介绍了一种基于空间交互转化器 (SIT) 的生成方法,该方法通过注意机制学习行人轨迹的时空相关性,并引入条件变分自动编码器 (CVAE) 框架对行人的未来潜在运动状态进行建模。大规模交通数据集 nuScenes 上的实验结果表明,SIT 的性能优于最先进的方法,并在具有挑战性的 ETH 和 UCY 数据集上得到了验证。
Dec, 2021
提出一种名为 STAR-transformer 的模型,该模型可以有效地表示两个跨模态特征为可识别的矢量,并学习到一种高效的多功能特征表示方法。在动作识别领域中,STAR-transformer 的效果显著优于之前的最先进方法。
Oct, 2022
本文提出了基于图卷积的框架,通过构建场景图并在场景内计算对象之间的空时关系,从两个不同角度进行了预测行人是否穿过街道的实验,并提供了一种用于自主驾驶系统在高密度行人区进行行人意图预测的新数据集,实验结果表明我们的方法能够以精度高于现有方法的 79.1%(STIP 数据集)和 79.28%(JAAD 数据集)的准确度预测行人的意图。
Feb, 2020
通过 Hyper-STTN,基于超图的时空变换网络,在拥挤场景中解码全面的群组和个体间的交互关系,从而实现人群轨迹预测。
Jan, 2024
本文提出了一种基于多尺度图形空间变换和记忆重现的轨迹平滑算法模型,可以在预测单一和多个未来路径的同时,综合利用空间信息并修正时间不一致的轨迹,同时还提出了一个新的评估指标来评估多轨迹预测的全面性。
Jun, 2022