human motion stylization aims to revise the style of an input motion while
keeping its content unaltered. Unlike existing works that operate directly in
pose space, we leverage the latent space of pretrained auto
本文提出了一种数据驱动的运动风格转移框架,该框架学习来自带样式标签的不成对运动集合,并能够从视频直接提取运动风格进行转移。该框架还能够绕过 3D 重建并将其应用于 3D 输入运动,其中运动的内容和风格经过编码,分别在解码合成过程中起不同的作用。实验结果表明,该方法在不需要成对训练数据的情况下,其结果可与最先进的方法相媲美,并且在转移先前未见过的风格时优于其他方法。同时,该方法还是首次从视频到 3D 动画实现风格转移的研究。