HeadSculpt: 使用文本创造 3D 头像
本文提出了一种新的基于 3D 可塑模型(3DMM)的文本引导头部生成方法,利用扩散模型生成多视图一致性辐射场的同时更新几何和纹理以生成和文本描述一致的 3D 头部化身,以此在一定程度上提高 3D 头部生成的精度和多样性。
Jul, 2023
通过结合文字和图像信息,利用扩散模型,我们开发了一种零样本的三维生成模型,能够合成高分辨率纹理网格,实现了将二维图像直接转化为三维空间的功能。
Aug, 2023
本文提出了 AvatarStudio—— 一种基于文本的方法,用于编辑动态全头人物角色的外观。该方法与现有的神经辐射场 (NeRF) 捕捉动态表现的工作相结合,并用文本 - 图像扩散模型对其进行编辑。经过我们视觉和数字方面的用户体验后,发现我们的方法优于现有的方法。
Jun, 2023
HeadEvolver 是一个用于生成基于文本引导的风格化头像的新框架,通过使用本地可学习的网格变形从模板头部网格生成高质量的数字资产,以实现保留细节的编辑和动画效果。通过引入可训练参数作为每个三角形上的 Jacobian 权重因子,我们解决了全局变形中缺乏精细和语义感知的局部形状控制的挑战,从而在保持全局对应关系和面部特征的同时自适应地改变局部形状。此外,为了确保来自不同视角的形状和外观的一致性,我们使用预训练的图像扩散模型进行可微渲染,并使用正则化项来改进文本引导下的变形。大量实验证明我们的方法能够生成具有可编辑的关节网格的多样化头像,从而在三维图形软件中实现无缝编辑,便于继承融合形状和语义一致性的更高效动画等下游应用。
Mar, 2024
该研究提出了一种名为 HeadArtist 的方法,通过文本描述生成 3D 人头模型,采用具有里程碑引导的 ControlNet 作为生成先验,通过自分数蒸馏(SSD)的方式优化参数化 3D 人头模型,实验结果表明这种方法生成的高质量 3D 人头雕塑几何结构和现实外观足够好,并且在艺术造型和外观编辑方面明显优于现有的方法。
Dec, 2023
本文提出了一种新的方法,结合使用预训练的图像文本扩散模型和基于生成对抗网络的 3D 生成网络,用于生成高质量,风格化的 3D 头像,并在视觉质量和多样性方面优于现有最先进的方法。
May, 2023
提出了 Portrait3D 框架,通过将肖像图像的身份信息整合到几何初始化、几何塑造和纹理生成阶段中,实现了从单幅肖像图像生成高质量 3D 头像的方法。
Jun, 2024
该研究通过利用 3D 高斯点的语义驱动 FLAME 模型生成真实且动态的数字化头像,从文本提示中产生可动画头像,并在实验中表现出具有视觉吸引力的高质量外观。
Feb, 2024
通过使用 3D 面部化身、文本引导生成、组合式化身、NeRF 和虚拟试穿,我们提出了一个新方法(TECA)来创建逼真的 3D 面部化身,同时实现可编辑性和特征转移。
Sep, 2023
本文提出了一个零射击的管道,该管道可以通过捕捉用户的身份以令人愉悦的方式进行头像生成,具有个性化的图像生成特征,此外,作者使用大规模图像数据集学习人类 3D 姿态参数,克服了动作捕捉数据集的局限性。
Apr, 2023