该研究提出了一种基于扩散模型的可控运动扩散模型 (COMODO) 框架,通过强化学习控制器和控制策略,实现了对虚拟角色的实时、多样化运动生成,可以适应用户的实时命令,同时还可以预测更多多样化的动作。
Jun, 2023
该研究介绍了 MoDiff,它是一个基于自回归概率扩散模型的运动序列生成模型,其结合了跨模式 Transformer 编码器和基于 Transformer 的解码器,以生成控制时序依赖性的动作。该模型在运动合成方面表现优异,并通过数据丢弃方法来提高数据表示和运动合成的鲁棒性。
Apr, 2023
引入高效动作扩散模型(EMDM)用于快速高质量的人体动作生成,通过建模复杂的去噪分布在多个采样步骤中实现更大的采样步长和较少的步骤,加速生成过程并保持高质量的运动生成。
Dec, 2023
我们提出了一种基于扩散的、可加速的框架,能够高效地预测代理的未来轨迹,具有对噪声的高抗干扰性,并满足自动驾驶车辆所需的严格实时操作标准。
May, 2024
本研究提出了一种基于扩散模型的动作生成框架 ReMoDiffuse,它集成了一种检索机制以改善去噪过程,提高了文本驱动动作生成的通用性和多样性,并且在更多样化的动作生成方面表现出色,优于现有的最先进方法。
使用双向自回归扩散模型 (BADM) 生成与音乐相协调的舞蹈动作,通过在前后方向均保持协调一致的双向编码器和局部信息解码器,实现了生成新动作、平滑运动、提高舞蹈与节拍的同步性等功能。实验结果表明,该模型在音乐到舞蹈生成的重要基准上达到了最先进的性能。
Feb, 2024
通过利用大型语言模型解析输入的文本为与目标动作相对应的简明易懂的解剖脚本序列,本文提出了适应性运动扩散 (AMD) 模型,以解决现有方法难以处理复杂或长动作描述的问题。通过制定平衡输入文本和解剖脚本对逆扩散过程影响的两支融合方案,本方法能够自适应地确保合成动作的语义保真度和多样性。在包含较为复杂动作的数据集(例如 CLCD1 和 CLCD2)上的实验证明,我们的 AMD 显著优于现有的最先进模型。
本文介绍了一种名为 SinMDM 的单一运动模型,使用扩散模型和针对单一运动的去噪网络设计,能够学习任意长度的与原来的运动片段相似的动画并且高效快速。SinMDM 可应用于各种场景,包括运动合成,风格迁移和人群动画。
Feb, 2023
本文引入了 Motion Diffusion Model(MDM),这是一种经过精心设计的无分类器扩散生成模型,适用于人体运动领域,并在文本转运动和动作转运动的领先基准测试中实现了最先进的结果。
Sep, 2022
本文提出了一种使用去噪扩散概率模型(DDPM)生成风格化人体运动的框架,将两个任务集成到一个管道中,与传统运动合成方法相比,具有更高的风格多样性,实验结果表明,该系统可以生成高质量且多样化的行走动作。