解耦接触以实现精细运动风格迁移
本文提出了一种数据驱动的运动风格转移框架,该框架学习来自带样式标签的不成对运动集合,并能够从视频直接提取运动风格进行转移。该框架还能够绕过3D重建并将其应用于3D输入运动,其中运动的内容和风格经过编码,分别在解码合成过程中起不同的作用。实验结果表明,该方法在不需要成对训练数据的情况下,其结果可与最先进的方法相媲美,并且在转移先前未见过的风格时优于其他方法。同时,该方法还是首次从视频到3D动画实现风格转移的研究。
May, 2020
本研究提出了一种利用动画合成网络来模拟基于本地运动相的运动内容的风格建模系统,通过特征变换来实时调制风格,其在实时风格建模方面的鲁棒性和效率得到了提高。
Jan, 2022
该研究论文提出了一种针对在线动画应用的高效灵活的运动风格转移方法,使用一种新的样式转移模型:Style-ERD,该模型具有Encoder-Recurrent-Decoder 结构和新的关注机制,可以将动作样式化成多个目标样式。相较于离线处理方法,该方法在运动真实感、样式表现力以及运行时效率方面都有显着提高。
Mar, 2022
本研究提出了一种基于神经网络的端到端模型,可在用户控制下实时生成和转换不同风格的运动,无需手工制作的相位特征,在游戏系统中易于训练和部署,并从实验三个方面,即准确性,灵活性和多样性进行了评估,表现出令人满意的结果。
Mar, 2022
本文提出了一种针对数字人运动合成的解决方案,使用Denoising Diffusion Probabilistic Model中的扩散模型和多任务架构来表示不同类别的动作内容和不同内部类别行为的样式,并使用对抗性和物理规则来实现全局引导。实验结果表明,该方法能够产生高质量、逼真的人体运动,并有效验证了多任务架构的有效性。
Dec, 2022
本文提出使用实时样式化运动转换方法 (RSMT) 在满足速度、质量、多样性和可控性的要求下,生成在线样式化运动,其核心在于提出了一个运动流形模型和样式运动采样器,可以分别对不同数据集进行单独训练和综合评估.
Jun, 2023
基于新的模型架构和风格解耦损失,我们提出了一种有效解决在不同内容的运动之间进行风格传递的问题的运动风格转换器,它能够将风格与内容有效分离,并生成具有传入风格的逼真运动。我们的方法在各方面表现优于现有方法,在不同内容的运动对中表现出特别高的质量,而无需启发式后处理。
Mar, 2024
该研究提出了一种生成式动作风格化流程,利用跨模态风格提示在跨结构角色上合成多样化和风格化的动作。通过将动作风格嵌入跨模态潜空间并感知跨结构骨架拓扑,该方法在标准动作空间内实现动作风格化。通过定性和定量实验,证明了该流程在各种角色和风格描述中的灵活性和通用性,一致提供高质量的风格化动作。
Mar, 2024
我们提出了一种基于扩散模型的即时人体运动风格转移学习方法,通过几分钟的微调学习,可以将未知的风格转移到不同的内容运动中,且仅需要一个风格示例和以中立运动为主的文本到运动数据集(例如HumanML3D)。
Mar, 2024
本研究解决了基于数据的运动插值方法缺乏多样性和用户控制的问题。通过将动态条件和明确的运动控制融入运动过渡过程中,我们提供了一种新的方法,使用户能够通过时间、路径和风格等额外条件来细化时空控制。研究表明,该方法能够合成多种运动形式,从而生成丰富、高质量的动画。
Sep, 2024