BlendFields:少样本基于实例的面部建模
提供了一种细致的人脸操作方法,利用三维人脸模型和分离出质地和形状的方法进行纹理和形状不同表情的构建,进而通过生成网络和全连接网络实现表情的合成和准确形状的预测,获得了优越的结果,并被 85% 的用户优先选择,并且在 53% 的情况下,注释员无法可靠地区分合成的图像和真实图像的差别。
Feb, 2019
通过基于部件的隐式形状模型,我们设计了一种可以控制 3D 头像的方法,可以推断局部语义 Rig,包括面部特征,通过局部控制丰富了隐式形变字段,使其具有更强的局部控制性能。
Apr, 2023
本文介绍了一种基于多视角捕捉技术,利用深度变分自编码器来学习人脸的几何结构和外观特征联合表示,可实现对大规模、高度复杂的人脸几何结构的完美表现,从而能够适用于实时互动场景,例如虚拟现实 (VR) 应用。
Aug, 2018
本研究提出了一种基于深度学习的生成模型,结合 4000 高分辨率人脸扫描数据集,能够产生多种面部几何、材料属性的人脸模型,并可用于物理渲染,旨在增加面部身份的多样性,提高唯一组件之间的韧性,包括中频几何、反照率图、高频位移细节等,可用于新颖的身份生成、模型拟合、插值、动画、高保真数据可视化和低到高分辨率数据域转换,并有望鼓励所有图形、视觉和数据专业人士之间进一步的合作,展示每个人完整生物特征资料的累积价值。
Apr, 2020
在这篇论文中,我们提出了一种新的变形技术,将 2D 和 3D 方法的优势结合起来,以实现稳健的面部再演技术。我们生成了密集的 3D 面部流场,并通过所提出的 “循环变形损失” 将其转换回 2D RGB 空间,从而实现了对源面孔和目标面孔的 3D 几何控制。通过首先渲染面部前景区域,然后学习对由于源面孔平移而需要填充的空白区域进行修复,我们重建了细节丰富的背景,而且在渲染无伪影的面部图像方面超过了现有技术。
Apr, 2024
通过具有个性化、三维可动角色的单目摄像头获取数据,在建模动态、细粒度服装变形方面存在挑战。本文提出了一种名为 ' 神经表面场 ' 的新方法,用于从单目深度数据中建模穿着服装的三维人物,以超越现有方法的局限性,具有计算效率高、网格连贯性好以及能够重建任意分辨率网格等优势。
Aug, 2023
本文提出一种利用神经放射场和局部像素对齐特征预测人头部的体积化代理,可以在多身份环境中进行泛化,并且无需明确的 3D 监督。该方法在以光度渲染损失为基础的端到端训练中表现出更好的质量,并且能够生成真实的面部表情。
Jan, 2021
本文提出了一种新颖的 3D 组合表示方法,将离散和连续的体积表示方法相结合,结合了粗糙的网格动画代码和连续的学习场景功能,使用可区分的体积渲染来计算动态人头和上半身的新视图,并在使用仅 2D 监督时进行端到端的训练,实现了动态人头和上半身新视图综合的最新最佳结果。
Dec, 2020