- 猿猴仿效:利用自注意力在运动扩散中实现零样本运动转移
通过深入研究预训练动作扩散模型中潜在特征空间的隐含优势以及注意力机制,本文提出了一种名为 MoMo 的零样本动作转换方法,它能够保持追随者的细微特征并将领导者的动作传递给追随者,同时充分利用预训练模型的权重,允许选择性地编辑与特定动作相关的 - WANDR:意向导向的人类动作生成
用于 3D 人体模型的运动合成的数据驱动模型和生成模型方法,通过引入目的特征来驱动生成目标导向的自然动作,从而在不需要定义子目标或整个运动路径的情况下交互地适应新的情况,实现长期并能推广至未见目标位置的 3D 目标到达。
- ParCo: 部分协调的文本到动作综合
我们提出了 Part-Coordinating Text-to-Motion Synthesis (ParCo) 方法,它通过增强的能力来理解部分运动和不同部分运动生成器之间的通信,确保协调和细粒度的运动合成。我们的方法在 HumanML3 - 在规范动作空间中进行生成性动作风格化
该研究提出了一种生成式动作风格化流程,利用跨模态风格提示在跨结构角色上合成多样化和风格化的动作。通过将动作风格嵌入跨模态潜空间并感知跨结构骨架拓扑,该方法在标准动作空间内实现动作风格化。通过定性和定量实验,证明了该流程在各种角色和风格描述中 - 扩展动态人 - 场景交互建模
通过引入 TRUMANS 数据集和一种新颖的 HSI 运动合成方法,我们克服了数据稀缺和高级动作合成在人类 - 场景交互建模中的挑战。我们的方法采用扩展的扩展的物理环境模型和外观运动增强技术,使 TRUMANS 数据集成为目前最全面的 HS - DEMOS: 动态环境中基于局部球面 - BEV 感知的 3D 场景动作合成
该研究提出了第一个动态环境动作合成框架(DEMOS),通过预测当前场景来即时预测未来动作,并用其动态更新潜在动作,从而在处理动态环境时取得了显著的性能优势。
- EMDM:快速、高质量运动生成的高效运动扩散模型
引入高效动作扩散模型(EMDM)用于快速高质量的人体动作生成,通过建模复杂的去噪分布在多个采样步骤中实现更大的采样步长和较少的步骤,加速生成过程并保持高质量的运动生成。
- AAMDM: 加速的自回归运动扩散模型
通过综合定量分析和视觉比较,我们展示了加速自回归运动扩散模型(AAMDM)在运动质量、多样性和运行效率方面优于现有方法,并通过消融研究证明了每个算法组成部分的有效性。
- PhysGaussian: 三维高斯过程的物理生成动力学
我们介绍了 PhysGaussian,一种无缝集成物理基础牛顿动力学和三维高斯函数的新方法,以实现高质量的新颖动作合成。
- 随心所欲:具有层次语义图的运动扩散模型细粒度控制
提出了一种利用分层语义图实现对人体运动生成的细粒度控制的方法,通过将运动描述分解成三个层次的语义图,从整体到局部的结构帮助全面理解运动描述和对运动生成进行细粒度控制,并对分解的文本到运动扩散过程进行了优化,通过修改分层语义图的边权重,实现了 - 姿态至动作:带有姿态先验的跨域动作重定位
通过姿势数据和神经运动合成方法,我们利用现有的运动捕捉数据集将合理的动作转移到只有姿势数据的角色上,实验证明该方法可以同时有效地结合源角色的运动特征和目标角色的姿势特征,并通过小型或嘈杂的姿势数据集生成逼真的动作,被参与者评为更加享受观看、 - TapMo: 无关骨骼角色的形状感知动作生成
通过使用形状变形感知特性作为条件来指导扩散模型,并生成适应不同角色的网格特异运动,从而使 TapMo 成为广泛范围骨骼自由 3D 角色动画合成的一种文本驱动动画流水线。
- ICCV基于扩散概率模型的人 - 物交互的分层生成
提出了一种新方法,通过 hieraechical generation framework 来生成 3D 运动,以解决生成多样且长距离运动的挑战,并且在 NSM、COUCH 和 SAMP 数据集上的实验证明该方法在质量和多样性方面优于以前的 - 可控的运动扩散模型
该研究提出了一种基于扩散模型的可控运动扩散模型 (COMODO) 框架,通过强化学习控制器和控制策略,实现了对虚拟角色的实时、多样化运动生成,可以适应用户的实时命令,同时还可以预测更多多样化的动作。
- 利用文本生成虚拟身体加速度计数据进行人体活动识别
通过聊天 GPT 生成不同的文本描述活动的文字描述,通过运动合成模型 T2M-GPT 生成 3D 人体运动序列,然后转换成流的模拟 IMU 数据,将其与部分真实 IMU 数据结合训练 HAR 模型可以显著提高其性能
- BoDiffusion:用于全身人体运动合成的稀疏观测扩散
本研究提出了一种名为 BoDiffusion 的生成扩散模型,用于解决头戴式设备只能追踪头部和手部运动的局限,通过条件序列生成任务模拟全身运动,实验表明该模型在运动合成方面的性能优于现有模型。
- 在多样化的 3D 场景中生成连续的人体动作
我们介绍了一种利用稀疏关键点在三维场景中合成动画指导人类运动的方法,该方法通过将连续运动合成问题分解为沿路径行走和在关键点指定的动作之间的转换,生成长序列的动作,并在目标为原点的规范坐标系中生成运动以实现持续运动合成。
- CVPR基于关键帧的运动插值连续中间标记学习与隐含运动流形
本文提出了一种使用基于关键帧约束的潜在运动流形组成的新框架,以及从中生成连续自然的中间令牌表示的方法,进而外推和合成运动数据的运动综合阶段。我们的实验证明了该方法在插值准确性和视觉相似性方面具有优越性。
- ICLRHuman MotionFormer:基于视觉 Transformer 的人类动作转移
本论文提出了一种基于全球和本地感知的分层的 ViT 框架 Human MotionFormer,旨在提高人类运动转移中的特征匹配和运动品质,该方法通过多个块的特征匹配和运动传递,实现了全局特征匹配,进一步引入了卷积层来改善局部感知,实现了平 - 单运动扩散
本文介绍了一种名为 SinMDM 的单一运动模型,使用扩散模型和针对单一运动的去噪网络设计,能够学习任意长度的与原来的运动片段相似的动画并且高效快速。SinMDM 可应用于各种场景,包括运动合成,风格迁移和人群动画。