本文提出了一种基于深度学习的新型方法,用于直接从输入音频中产生驱动 JALI 或标准 FACS 制作面部捕捉的动画师中心音频运动曲线。
May, 2018
本论文介绍了一种基于深度学习和 LSTM 模型的互动系统,该系统可以自动生成分层 2D 角色的实时唇形同步。采用小而有用的前瞻性设计,结合数据增强过程,可以在很少手工制作的培训数据下获得好的结果。
Oct, 2019
给定了一个称为 Speech2Lip 的分解 - 合成 - 组合框架,该框架通过学习敏感于语音和不敏感于语音的运动和外观来从有限的训练数据中生成自然的视频,实现了短视频时的准确嘴唇和形象产生,以及视频的视觉质量和语音 - 视觉同步方面的最新性能。
Sep, 2023
本文介绍了一种基于语音驱动的三维面部动画生成准确嘴唇运动的方法,通过提出的视听多模态感知损失来指导训练面部动画生成器生成与口述文本相对齐的可信嘴唇动作。此外,我们还设计了一种利用先验知识关联语音和嘴唇运动的视听唇读专家,以整合提出的视听感知损失,并通过广泛的实验证实了我们的方法的有效性,显示了嘴唇同步和可读性性能的明显改善。
Jul, 2024
我们提出了一种通过语音生成唇部运动和生成视觉外观来编辑说话视频的方法,通过将唇部运动和视觉外观分离并分别生成,使用语音到运动扩散模型和运动条件下的外观生成模型。通过使用标记点来表示运动并采用基于标记点的身份损失,我们可以保留个人身份信息,并通过使用独立编码器对唇部、非唇部外观和运动进行编码,并通过学习融合模块将它们整合以捕捉运动无关的视觉细节。实验证明,我们的方法在唇部同步和视觉细节保持方面对未知的、甚至是不相关的人具有很好的泛化能力。
Jun, 2024
本文提出了一种端到端的深度学习方法,用于从音频中实时生成面部动画,采用了深度双向长短时记忆网络和注意力机制识别语音中的上下文信息的潜在表示,并自动推断不同水平的面部动作,并随着输入音频中的相应音高和潜在说话风格保持一致,无需预设或进一步的人类干预,评估结果表明,我们的方法不仅能够从音频中生成准确的嘴唇运动,还能成功回归说话人的时间变化的面部运动。
May, 2019
提出了一种名为 Learn2Talk 的学习框架,该框架可以通过利用 2D 说话面领域的两个专业点来构建更好的 3D 说话面网络,主要关注嘴唇同步、语音感知、音频 - 3D 动作回归网络等方面的研究。
Apr, 2024
提出了一种从任何野外说话人的无声视频中仅基于嘴唇动作合成语音的新方法,通过将嘴唇到文本网络的嘈杂文本监督纳入模型中实现了语言信息注入,并使用视觉流生成与输入视频同步的准确语音,通过广泛的实验和消融研究表明了该方法在各种基准数据集上的优越性,并在辅助技术中展示了其重要的实际应用。
Mar, 2024
本文提出了一种基于说话者唇部运动的语音合成方法,通过收集唇部运动大规模数据集并针对唇读单个说话者在自然环境下的情况进行模型设计,该模型可以更准确、自然地模拟说话者的语音,其量化、定性评估结果表明,该方法比现有方法的可理解性提高了四倍。
May, 2020
通过一个由自动编码器和卷积神经网络构成的模型,在无声视频中对语音信号的频谱表示进行重建,获得了 98% 的相关性并且提高了音频质量。经过多个说话人的联合训练,该模型能够提取出不同说话人的个体特征,具有良好的识别准确率。
Oct, 2017