AVFace: 面向详细的音频视觉 4D 人脸重建
本文介绍了一种基于视觉的、口型感知的三维口部表情重建方法,该方法不需要任何文本转录或对应音频,并使用 “lipread” 损失来指导拟合过程,以使三维重建的头部运动与原始视频片段的感知相似。此外,通过三个大规模数据集的详尽客观评估和两个基于网络的用户研究的主观评估,我们证明了该方法的有效性。
Jul, 2022
本文提出了一种基于 2D 口型视频和 3D 面部重构方法训练的 3D 面部动画模型,该模型具有良好的泛化能力和包括口型同步在内的高保真度,能够捕捉不同个体的讲话风格并输出个性化的 3D 说话头像,经实验证明其优越性。
Jun, 2023
利用多帧视频自我监督训练深度网络,学习面部身份模型并同时重建 3D 面部,采用新的多帧一致性损失函数使得 consistent shape 和 appearance 尽量减小深度不确定性,从而实现单目和多帧重建。
Dec, 2018
基于单目视频输入,本研究提出了一种名为 360° 体积肖像(3VP)头像的新方法,该方法用于重建 360° 全景真实头像,以模板为基础跟踪躯干、头部和面部表情,训练基于神经辐射场的神经体积表示,解决了外观变化模型中特别是嘴唇和牙齿区域的挑战,评估了实际采集的数据并与最先进的单目重建方法进行了比较。
Dec, 2023
提出了一种新颖的自监督框架,名为 Versatile Face Animator,它将面部动作捕捉与动作重新定位结合起来,从而实现了在任意 3D 角色上进行面部动画的理想效果,并具备潜在的成本效益和高效率的潜力。
Aug, 2023
我们介绍了一个独特的 4D 人脸数据集,使用它训练的神经网络 VOCA 可以根据语音信号实现逼真的人脸动画,可被用于游戏视频、虚拟现实头像等多种领域。
May, 2019
本研究提出了一种基于自监督学习的方法,通过图像和视频数据学习脸部特征的完整 3D 模型,实现了环境无关的单目重建,并训练出能够更好地推广和提高图像重建质量的表情基础等方面的面部模型。
Oct, 2020
我们提出的 3DiFACE 方法是一种用于个性化语音驱动的 3D 面部动画和编辑的新方法。通过引入一种轻量级的音频条件扩散模型,我们能够在保持表现力丰富的唇部运动输出的同时,允许随机性和动作编辑。经过定量和定性评估,我们展示了我们的方法优于现有的技术,并产生更具保真度和多样性的语音驱动动画。
Dec, 2023
本文提出了一种利用耦合三维卷积神经网络架构来映射音频和视频流到统一表示空间,从而有效地找到不同模态之间时间信息的关联性的 AVR 方法,并且相对于现有的采用 3D CNN 特征表示的视听匹配方法,使用较小的网络架构和数据集进行训练,我们的方法显著提高了性能,相比于最先进的方法 Equal Error Rate(EER)的相对改进超过 20% ,而平均准确度(AP)的相对改进超过 7%。
Jun, 2017
通过跨模态学习方法的视听特征融合,我们提出了一种用于改进深假检测的两阶段方法,可以明确地捕捉音频和视觉模态之间的对应关系,并在真实和伪造视频上进行监督学习,取得了 98.6% 的准确率和 99.1% 的 AUC,相较于当前的音视混合最先进技术,准确率和 AUC 分别提高了 14.9% 和 9.9%。
Jun, 2024