VariTex: 变分神经面部纹理
提出了一种名为 TexVocab 的新方法,通过构建纹理词汇表并将人体姿势与纹理映射关联,从而充分利用多视角基于视频的人物建模中可用的图像证据,以实现细致和动态的人物表现。
Mar, 2024
本文介绍了一种基于多视角捕捉技术,利用深度变分自编码器来学习人脸的几何结构和外观特征联合表示,可实现对大规模、高度复杂的人脸几何结构的完美表现,从而能够适用于实时互动场景,例如虚拟现实 (VR) 应用。
Aug, 2018
通过将任务分为三个组成部分(即 3D GAN Inversion,Conditional Style Code Diffusion,3D Face Decoding),我们提出了一种名为 TEx-Face(文本和表情生成面部)的新方法,以实现高效和可控的生成逼真的 3D 面部模型。
Dec, 2023
本文提出了一种基于混合形状几何、动态纹理和神经渲染的照片级头部模型的文本 / 语音驱动动画的新方法,该动画方法基于有条件的 CNN 将文本或语音转换为一系列动画参数。
Jun, 2023
自动生成 3D 人头一直是计算机视觉研究人员的一个引人入胜且具有挑战性的任务。我们提出了一种方法,它具备质量、多样性、控制和逼真性等令游戏设计艺术家期望的功能,其中包括可解释的网络设计、无缝合成多个高保真度的基于物理的渲染贴图以及对生成贴图进行语义颜色控制的新颖色彩变换模型。
Oct, 2023
利用 TexDreamer 模型,我们通过有效的纹理自适应微调策略将大型文本到图像模型转化成语义化 UV 结构,在保留其原始泛化能力的同时,能够在数秒内生成高保真度的 3D 人体纹理。此外,我们还介绍了包含 50k 高保真度的纹理及文本描述的 ATLAS 高分辨率 3D 人体纹理数据集。
Mar, 2024
我们提出了一种名为 CapHuman 的新框架,通过 “编码然后学习对齐” 的范例,能够在推理过程中对新的个体进行可推广的身份保留,通过引入三维面部先验以实现对人头的灵活和三维一致的控制,从而产生具有丰富内容表示和各种不同头部造型、超越现有基线模型的身份保留、逼真和高保真肖像画。
Feb, 2024
我们提出了一个学习全身神经头像的系统,该系统采用中间路径,同时估计模型表面的显式二维纹理映射,并通过卷积网络将身体特征点的配置与相机相对应,直接映射为图像中单个像素的 2D 纹理坐标。我们展示了这样的系统能够学习生成逼真的渲染,并通过与使用直接图像到图像翻译的系统相比较的值得推崇的泛化性能来展示,保持显式纹理表示对于系统的改善有所帮助。
May, 2019
该研究提出了一种统一框架来生成和处理面部图像,基于预训练的 GAN 模型,使用两种新颖的策略,直接优化潜在空间的潜在编码以获取多模式输入的图像生成和操纵,并提出了一个大型数据集 Multi-Modal CelebA-HQ。
Apr, 2021
本文提出一种名为 Text2Human 的控制性框架,用于基于文本的生成高质量和多样化的人类图像。在此框架下,我们建立了一个分层的纹理感知码书,以存储不同类型纹理的多尺度神经表征,并使用混合专家的扩散变换采样器采样码书中的索引。通过使用细粒度文本输入,生成的图像具有更高的质量和更多的多样性,拥有比现有方法更好的性能。
May, 2022