利用分离音频表示动态表情
该研究旨在通过学习分解的音频 - 视觉表示来实现任意主题的对话面生成,并证明所学习的音频 - 视觉表示对于自动读唇和音频 - 视频检索任务非常有用。
Jul, 2018
本研究提出了一个用于言语生成的高效解开耦合框架 (EDTalk),该框架具有分解面部动态的能力,允许对嘴型、头部姿势和情绪表达进行个别操作,并能根据视频或音频输入进行条件设置。我们通过三个轻量级模块将面部动态分解为分别代表嘴部、姿势和表情的三个独立潜在空间,并利用可学习的基向量对每个空间内的特定运动进行定义。我们通过在基向量之间施加正交性约束并设计了高效的训练策略来加速训练过程,同时保证独立性。学习到的基向量存储在相应的存储器中,以实现与音频输入的共享先验知识。另外,鉴于每个空间的特性,我们还提出了一个音频到运动模块,用于音频驱动的言语生成。实验证明了 EDTalk 的有效性。
Apr, 2024
提出了一种名为 SPEAK 的一次性 Talking Head Generation 框架,通过情感和姿势控制实现与一般 Talking Face Generation 的区别。该方法采用 Inter-Reconstructed Feature Disentanglement (IRFD) 方法将人脸特征解耦为三个潜在空间,并设计了一个面部编辑模块,将语音内容和面部潜在编码修改为单一的潜在空间。进一步,提出了一种新颖的生成器,利用编辑模块生成的修改后的潜在编码来调节情感表达、头部姿势和语音内容,以合成面部动画。大量实验表明,该方法可以生成具有协调的唇部运动、真实的面部情感和平滑的头部运动的逼真说话角色。
May, 2024
本文提出了一种从单个面部图像与仅含音频的输入生成富有表现力的谈话头像的方法,并能以单一的统一框架中合成艺术绘画、素描、2D 卡通角色、日本漫画和风格化漫画等图像,并通过定量和定性方法的评估以及用户研究,证明其比现有技术的生成头像的质量显着更高。
Apr, 2020
本文提出了一种基于深度神经网络的方法,通过输入音频信号和短视频,生成个性化头部姿态、表情和口型同步,并使用记忆增强的生成对抗网络模块来优化合成效果的自然对话人脸视频。实验表明,该方法可以在较少帧数的情况下生成高质量、自然的对话人脸视频。
Feb, 2020
本文提出了一种基于神经辐射场的框架来生成高保真、个性化的说话人头像,并利用大量数据观察到输入音频与唇部运动高度相关,提出一种条件分解方法,其中唇部运动直接从音频输入中预测来实现同步生成,同时从高斯过程中设计一个变分自编码器来学习可能的、自然的头部姿势和眨眼的个性化属性。多个基准测试表明,该方法实现了远优于现有方法的成果。
Jan, 2022
本文提出了一种利用音频生成三维面部动画的通用方法,该方法建立一个针对面部动画的分类潜空间,根据音频相关和不相关的信息进行信息分离,实现面部动画中高度逼真的运动合成结果,包括高准确度的唇部运动,以及未相关到音频信号的面部其他部位的合理动画,此方法在定性和定量方面均优于现有基线,且具有高逼真度。
Apr, 2021
本研究提出了一种基于文本的交谈头视频生成框架,能够按照上下文情感及语音节奏和停顿,合成高保真度的面部表情和头部动作。我们的算法通过两个阶段:一个是针对多个人种实现的通用阶段,一个是基于每一个人的具体情况实现的个性阶段。通过广泛的实验验证,我们的这一算法能够生成高质量、逼真的交谈头视频,且在多项指标上均超过目前领先的技术水平。
Apr, 2021
本研究构建了一种联合建模的声学表征学习任务,强调去耦合(disentanglement)声音信号的相关和无关部分,然后证明这些理想的、去耦合的方案具有独特的统计性质,并在训练期间强制执行这些性质,使平均 WER 相对提高了 24.5%,这提出了一种新的有效的音频表示的学习方法。
Aug, 2022
本文提出一种基于音频驱动的头像动画方法,该方法同时解决了面部动画和头部运动的问题,并且采用了神经网络来预测和生成头部和面部的动画以及背景的动作。通过关键点密集的运动场表示,本方法产生的头像动画具有很好的空间和时间连续性,并且性能优于现有技术。
Jul, 2021