本文旨在解决人体运动合成方面存在的挑战,提出了一种两阶段活动生成方法,通过学习合成稀疏的运动轨迹和生成密集的运动轨迹来实现长期人体运动轨迹的合成,并通过多种量化评估指标证明该方法优于 SOTA 方法。
Dec, 2020
研究逆向行动识别问题,以给定的预设行动类型为条件,通过采用 Lie Algebra 理论和时序变分自编码器(VAE)来生成 3D 的逼真的人体运动序列,并保持多样性,实验评估证明了方法的有效性。
Jul, 2020
通过引入简单但有效的连续长期生成框架 T2LM,本文解决了长期 3D 人体动作生成的问题,并在不需要顺序数据的情况下取得了优越的成果。
Jun, 2024
本文介绍了动作驱动的随机人体运动预测任务,提出了一种有效的多步预测模型和训练策略,结合深度学习模型和不同的时间编码模型以取得更好预测效果。
May, 2022
使用基于 Unity 的数据生成器 M3Act,进行多视角、多人、多群体的合成数据预训练,可在团体活动识别中提高 5.59%和 7.32%的精度及高达 6.8%的模型收敛速度。同时用 M3Act 生成含有大规模数据的 3d 运动,建立提出了多项检测标准并提出了一个新的竞争基线。
Jun, 2023
利用 BABEL 动作文本集合,设计了一种基于 Transformer 的 TEACH 方法,能够根据自然语言描述生成符合语义的 3D 人体动作,实现由多个动作组成的时间动作构成。
Sep, 2022
通过利用多语言多模态学习模型(MLLMs)的无动作数据,我们首次探索了基于自然语言指令的开放式人类动作合成,实现了通用的人类动作合成,为未来的研究铺平了道路。
通过使用预训练的 LLM 模型进行微调,本研究提出了 MotionLLM,一个简单且通用的框架,可实现单人和多人运动生成以及动作字幕生成。
May, 2024
我们介绍了一种利用稀疏关键点在三维场景中合成动画指导人类运动的方法,该方法通过将连续运动合成问题分解为沿路径行走和在关键点指定的动作之间的转换,生成长序列的动作,并在目标为原点的规范坐标系中生成运动以实现持续运动合成。
Apr, 2023
提出了一种新的框架 ODMO,用于仅以动作类型为条件生成逼真且多样化的长期 3D 人体运动序列,并具有自定义功能。该编码器使用对比学习来创建运动序列的分层嵌入,解码器使用分层解码策略,使得整个运动序列的木乃伊能够被重构,从而实现了有效的运动轨迹控制,从而实现了首个模式发现、插值和轨迹自定义等自定义功能,该代码在 Github 页面上发布。
Jul, 2022