基于单个角色的面部表情重定向
本文提出了一种基于非线性表情嵌入和表情域翻译的跨域表情转移技术,通过低维潜空间、几何约束、感知约束和用户友好的技术,实现了人脸表情转移到虚拟角色上,并且在大范围实验和用户研究中证明了该方法的高效性和高质量。
Aug, 2020
提出了一种全面的解决方案,通过深度学习模型将面部表情从输入面部图像转移到虚拟人脸,实现虚拟人物面部动画的自动化。使用 Unity 3D 开发了实用工具包,可接受图像和视频作为输入,以动画形式呈现目标虚拟人脸,并允许用户对动画结果进行操作。通过用户反馈不断改进模型和工具包的性能,从而增加了定制化属性以适应用户偏好。整个解决方案有助于加速用于虚拟现实应用的面部动画的生成。
Feb, 2024
利用 3D 几何和生成对抗网络设计了一种新的深度学习架构,用于实现面部和头部再现任务,通过全新的序列生成器和动态判别器网络,可以以几乎实时的速度(18 fps)以逼真和忠实的方式成功转移来自源视频的面部表情、头部姿态和眼神到目标主体中。
Jun, 2020
提出了一种新颖的自监督框架,名为 Versatile Face Animator,它将面部动作捕捉与动作重新定位结合起来,从而实现了在任意 3D 角色上进行面部动画的理想效果,并具备潜在的成本效益和高效率的潜力。
Aug, 2023
提出了一种基于结合使用大量视频数据、学习不同用户的个性化面部模型以及独特表情的动态图像映射,可以准确捕捉广泛条件下的微细面部动态及更准确地重构面部和面部运动,比现有技术达到更好的效果。
Jul, 2020
本文提出了一种基于神经渲染和基于 3D 面部表情建模的方法,支持语义视频操作,可以通过改变和控制面部表情实现交互式操作,实现了有希望的逼真效果,并且引入了用户友好的交互 AI 工具,可以处理关于特定部分的输入视频中期望的表情操作的可读的语义标签,并合成逼真的操作视频。
Nov, 2021
本文提出了一种适用于严格视图需求的 VR 面部动画的实时管道,从运营商的序列中提取操作员特定的外观信息,并将其映射到目标表情和头部姿态上,同时讨论了性能。
Apr, 2023
提出了一种基于图像的面部再现系统,其可用于将源视频用户的面孔替换为现有目标视频中演员的面孔,并保留原始目标性能,系统具有全自动化和不需要源表情数据库的特点,使用了图像检索和面部转移以产生令人信服的效果。
Feb, 2016
本文研究应用深度学习技术将单张静态图片转化为逼真的三维动画,重点探究四维面部表情的生成。作者运用一种称为深度网格编码器 - 解码器的技术,结合表情识别模型,以高分辨率的四维扫描数据集为基础,成功地实现了对面部表情的高度逼真合成,且具有较好地泛化能力。该研究是首次尝试解决四维面部表情合成的问题。
Jul, 2020