本文提出了一种新的框架来处理机器人导航中预测人类动态的问题,该框架将人类运动(或轨迹)和骨骼姿态预测这两个任务统一起来,并考虑到了场景和社交上下文等多种因素,最终在两个社交数据集上表现优异。
Jul, 2020
本文提出了一种新的基于图注意力网络的轨迹和姿态动力学建模方法,通过消息传递界面融合了输入输出空间中人机和人物交互的不同层次,最终在两个具有挑战性的数据集上评估其性能,证明其优于先前的工作和针对轨迹和姿态预测任务的现有技术水平。
Apr, 2021
本文旨在预测两个互动人物的运动,通过收集一组专业舞蹈者的数据,提出了一种新的跨交互关注机制,在短期和长期预测中都表现出优于单人运动预测的现有方法。
May, 2021
我们提出了一种适用于多人3D运动轨迹预测的新型框架,使用包含局部范围编码器和全局范围编码器的Multi-Range Transformers模型,可以实现不同人之间的社交互动,且在长期运动预测方面优于现有方法,甚至可以自动将人分成不同的互动组以预测15人的运动轨迹。
Nov, 2021
本文主要研究多人互动姿势的预测任务,其采用了基于频率输入表示、时空可分离和全可学习交互邻接框架,并且对2个人进行预测时,可以显著提高性能。与此同时,该文还提出了针对编码器的新的空间交互参数初始化方法,从而提高了性能和稳定性。
Apr, 2023
本文提出了一种名为PGformer的简单而有效的端到端框架,通过跨查询注意力机制和代理实体桥接高度互动个体之间的交互关系,实现了多人交互运动的短期和长期预测,并在ExPI数据集上表现出明显的优越性。
Jun, 2023
本文介绍了一个新的数据集MI-Motion,用来帮助研究多人运动预测,并提供基准测试来评估预测模型的性能,同时还介绍了一种新的基线方法——图卷积神经网络和时间卷积神经网络。
我们提出了关节-关系转换器,利用关系信息来增强交互建模和提高未来运动预测的准确性。
Aug, 2023
通过Encoding-Alignment-Interaction(EAI)框架提出了一种全身人体姿势预测任务,能够协同预测未来的身体和手部活动,从而实现对三维全身人体动作的表达性和跨领域的预测。
Dec, 2023
提出了一个基于相互作用感知、轨迹条件化的长期多智能体人体姿势预测模型,通过粗粒度到细粒度的预测方法,首先预测出多模态全局轨迹,然后根据每种模态对应的局部姿势进行条件化预测,有效处理人体运动的多模态性以及长期多智能体之间的复杂相互作用,提高在复杂环境中的性能,并通过构建新的真实世界图像和2D注释数据集来解决缺乏长期多智能体数据集的问题,从而对所提出的模型进行全面评估。
Apr, 2024