May, 2022
EAMM: 基于音频的情感感知运动模型实现一次性情感对话人脸
EAMM: One-Shot Emotional Talking Face via Audio-Based Emotion-Aware Motion Model
Xinya Ji, Hang Zhou, Kaisiyuan Wang, Qianyi Wu, Wayne Wu...
TL;DR本文提出 Emotion-Aware Motion Model (EAMM),结合音频与表情视频生成单次具有真实感情模式的表情化人脸。使用无需监督的零级和一级关键点运动生成姿态,再将情感相关的面部动态表示为线性可加位移,并实现了令人满意的结果。