Dec, 2023

SAiD: 带有扩散效果的语音驱动面部表情动画

TL;DR提出了一种使用扩散模型(SAiD)和基于 Transformer 的轻量级 U-Net 实现的语音驱动的 3D 面部动画方法,其中引入了音频和视觉之间交叉模态对齐偏差以增强唇部同步性,并通过引进 BlendVOCA 数据集解决公共资源稀缺问题。实验结果表明,该方法在唇部同步性上与基线方法相当或更出色,并确保了更多样化的唇部运动,并简化了动画编辑过程。