本文提出了一种使用去噪扩散概率模型(DDPM)生成风格化人体运动的框架,将两个任务集成到一个管道中,与传统运动合成方法相比,具有更高的风格多样性,实验结果表明,该系统可以生成高质量且多样化的行走动作。
Sep, 2022
本文引入了Motion Diffusion Model(MDM),这是一种经过精心设计的无分类器扩散生成模型,适用于人体运动领域,并在文本转运动和动作转运动的领先基准测试中实现了最先进的结果。
本文提出了一种针对数字人运动合成的解决方案,使用Denoising Diffusion Probabilistic Model中的扩散模型和多任务架构来表示不同类别的动作内容和不同内部类别行为的样式,并使用对抗性和物理规则来实现全局引导。实验结果表明,该方法能够产生高质量、逼真的人体运动,并有效验证了多任务架构的有效性。
Dec, 2022
本文提出了一种有效的扩散性方法InterGen,通过考虑人与人之间的交互并将其融入到运动扩散过程中,使普通用户只需使用文本指导即可自定义高质量的两人互动动作。
Apr, 2023
DiverseMotion 是一种新的方法,通过保持运动多样性,在基于文本描述的高质量人体运动合成中为优先适应训练运动而牺牲动作多样性的现有方法提供解决方案。
Sep, 2023
通过细粒度人体动作扩散模型 (FG-MDM) ,我们成功地生成了符合文本描述的多样化和高质量的人类动作,即使在训练数据分布之外。
Dec, 2023
通过在训练阶段保持域的独立性,我们通过在向后扩散中施加偏向采样,从而构造了源域关键帧生成的偏置,并将其应用为内容约束的梯度,以实现关键帧流形约束梯度(KMCGs)的框架,我们的验证结果表明,训练单独的模型在多达十种舞蹈动作风格之间进行转换,相比基线和消融的基于扩散的风格转换模型,在保留动作内容方面取得了显著的改进。此外,我们进行了主观评估的人类研究,以评估生成的舞蹈动作的质量,结果验证了KMCGs的竞争力。
提出了一种基础到高级的分层扩散模型(B2A-HDM),用于协同利用低维和高维扩散模型进行高质量的详细动作合成,其多变量去噪框架和生成潜力的全面探索使其在真实性、模态一致性和多样性方面优于现有的顶尖方法。
Controllable generation of 3D human motions using MotionMix, a weakly-supervised diffusion model, achieves state-of-the-art performances on text-to-motion, action-to-motion, and music-to-dance tasks.
Jan, 2024
人体动作风格化的生成模型基于预训练自动编码器的潜在空间进行动作提取和融合,实现了多样化的风格化结果,具有轻量级设计却在风格再现、内容保留和广泛应用方面优于现有技术的特点。