基于模块化编解码的表现性远程存在
本篇研究采用像素编码阿凡达(PiCA)作为一种深度生成模型,结合了卷积神经网络和自适应渲染的方法以实现在虚拟或增强现实中与逼真的人物形象进行面对面交流。实验表明,PiCA 比现有技术在不同性别和肤色的人物上的表情和视图的再现具有更好的表现,并且比当前基准模型更为紧凑,使得在单个移动 VR 头显上同时呈现 5 个人物形象成为可能。
Apr, 2021
本文提出了一种名为 Auto-CARD 的框架,该框架通过最小化冗余源来启用仅使用设备计算资源时实时和鲁棒的 Codec 头像驱动,实现了在虚拟现实 / 增强现实中建立逼真的远程存在的可能性。
Apr, 2023
虚拟现实 (VR) 具有比其他媒体更具身临其境感的社交互动的潜力。关键在于能够在佩戴 VR 头显的同时准确地模拟一个逼真的个人化化身。本研究揭示了头显摄像头镜头与模型相差较大是导致实时模型性能下降的主要原因,并提出了一个系统设计,将问题分解为两部分:1) 一个迭代优化模块,处理同一领域的输入;2) 一个通用的以化身为导向的图像转换模块,以当前表情和头部姿态的估计为条件。这两个模块相互加强,通过展示接近真实的示例,使图像样式转换更容易,并改善领域差异移除。我们的系统高效地产生高质量的结果,不再需要昂贵的离线注册来生成个性化标签。通过在市售头显上进行大量实验证实了我们方法的准确性和效率,并在直接回归方法和离线注册上展现了显著的改进。
Jan, 2024
我们提出了神经头像,该方法能够显式建模动画人物头像的表面几何形状和外观,是虚拟现实和其他电影或游戏应用中数字人物的一种有效表示方法,它能够从单目 RGB 人像视频中学习,能够精确地外推到未知姿态和观察角度,并产生自然的表情和清晰的纹理细节。
Dec, 2021
本文提出了一种适用于严格视图需求的 VR 面部动画的实时管道,从运营商的序列中提取操作员特定的外观信息,并将其映射到目标表情和头部姿态上,同时讨论了性能。
Apr, 2023
在虚拟现实环境中,我们提出了一种使用关键点和嘴部摄像头的混合方法来进行面部动画,以传达情感信号和模拟与特定个体互动的感知。我们的方法通过捕获两个短视频进行快速注册,利用多个源图像来覆盖不同的面部表情,并将嘴部摄像头信息注入潜在空间以解决关键点的歧义并实现更广泛范围的嘴部表情动画。该方法在质量、能力和时间一致性方面优于基线,并在 ANA Avatar XPRIZE 决赛中的胜利中突显了面部动画的贡献。
Dec, 2023
我们对 MegaPortraits 模型进行了深入的检查和评估,重点关注其用于面部表情描述符的潜在空间,并发现了其表达强烈面部动作能力的几个局限。为解决这些限制,我们提出了针对训练流程和模型架构的重大改进,推出了我们的 EMOPortraits 模型。该模型增强了对于真实支持强烈非对称面部表情的能力,在情感转移任务中取得了新的技术水平,在指标和质量方面超越了以往的方法。此外,我们将语音驱动模式融入模型,实现了在音频驱动的面部动画中的顶级性能,使得通过不同的模态,包括视觉信号、音频或两者的混合驱动源标识成为可能。还提出了一个新颖的多视角视频数据集,包括广泛范围的强烈非对称面部表情,填补了现有数据集中这类数据的空白。
Apr, 2024
提出了一种基于图像的新方法 FaceVR,该方法可基于自我再现实现 VR 视频会议,通过实时面部动作捕捉算法和单目视频的新数据驱动方法,FaceVR 具备近乎逼真的成像效果和改变面部表情和目光方向的功能。
Oct, 2016
本文提出一种利用神经放射场和局部像素对齐特征预测人头部的体积化代理,可以在多身份环境中进行泛化,并且无需明确的 3D 监督。该方法在以光度渲染损失为基础的端到端训练中表现出更好的质量,并且能够生成真实的面部表情。
Jan, 2021
通过使用 3D 面部化身、文本引导生成、组合式化身、NeRF 和虚拟试穿,我们提出了一个新方法(TECA)来创建逼真的 3D 面部化身,同时实现可编辑性和特征转移。
Sep, 2023