Human 3Diffusion:透过明确的 3D 一致性扩散模型实现逼真的头像创作
本研究工作旨在通过将 3D 可变模型整合到最新的多视角一致性扩散方法中,增强生成扩散模型在创建可控、照片般逼真的人类头像任务中的质量和功能。我们的实验证明了在基于关节的 3D 模型的准确约束下,生成流水线模型在单图像的新视角合成任务上的性能改进,更重要的是,这种整合实现了面部表情和身体姿势控制在生成过程中的无缝和准确融入。据我们所知,我们提出的框架是第一个允许从未见过的单一图像创建完全 3D 一致、可动画和照片般逼真的人类头像的扩散模型;广泛的定量和定性评估证明了我们的方法在新视角和新表情合成任务上相对于现有最先进的头像创建模型的优势。
Jan, 2024
DiffHuman 是一种基于概率的方法,通过一个单一的 RGB 图像实现逼真的三维人体重建。与确定性方法不同,DiffHuman 根据二维图像预测三维重建的概率分布,可以生成与图像一致的多个详细的三维人体模型。此外,DiffHuman 还引入了一个生成器神经网络,可以以大幅减少的运行时间进行渲染,从而实现了一种新颖的双分支扩散框架。在实验中,DiffHuman 在重建可见表面方面与现有技术不相上下,并且可以对输入图像中未见或不确定的部分生成多样且详细的重建结果。
Mar, 2024
本文提出了一种新的方法,结合使用预训练的图像文本扩散模型和基于生成对抗网络的 3D 生成网络,用于生成高质量,风格化的 3D 头像,并在视觉质量和多样性方面优于现有最先进的方法。
May, 2023
DiffusionAvatars 通过合成高保真度的三维头像人物,提供了对姿态和表情的直观控制。我们提出了一种基于扩散的神经渲染器,利用通用的二维先验生成引人注目的人脸图像。通过从目标视点渲染神经参数头模型(NPHM)对表情和头部姿态进行粗略指导,我们作为人物的代理几何体。此外,为了增强精细面部表情的建模,我们直接在 NPHM 中通过交叉注意力采用从 NPHM 获得的表情代码来调整 DiffusionAvatars。最后,为了在不同视点和表情之间综合一致地细化表面细节,我们通过 NPHM 的规范空间在头部表面上装配可学习的空间特征。我们使用人物的 RGB 视频和相应跟踪的 NPHM 网格对 DiffusionAvatars 进行训练,并在自我重演和动画场景中测试所得到的头像。我们的实验证明,DiffusionAvatars 在生成人物的新姿态和表情的时候能够产生时间上连贯而视觉上有吸引力的视频,优于现有方法。
Nov, 2023
通过 AvatarPopUp 方法,可以从不同输入模态生成快速且高质量的 3D 人体化身,具有对生成的姿势和形状的控制,使用基于扩散的图片生成网络和 3D 提升网络。该方法根据每个特定任务进行精细调优,能够在几秒内生成高质量的 3D 模型,远快于现有大多数方法,可以用于需要大规模控制 3D 生成的人体化身应用。
Jun, 2024
在这项研究中,我们提出了 FitDiff,一种基于扩散的三维人脸化身生成模型,它可准确生成可光照补充的人脸化身,利用从 “野外” 二维人脸图像中提取的身份嵌入。该多模态扩散模型同时输出面部反射映射(漫反射和镜面反射率及法线)和形状,展示了强大的泛化能力。它仅在公共人脸数据集的注释子集上进行训练,与三维重建配对。我们通过使用感知和人脸识别损失来指导反向扩散过程,重新审视了典型的三维面部拟合方法。FitDiff 是第一个以面部识别嵌入为条件的 LDM,它能够重构可光照补充的人类化身,可以直接在常见的渲染引擎中使用,仅从无约束的人脸图像开始,并达到了业界的最佳性能。
Dec, 2023
DreamAvatar 是一个生成高质量、可控制姿态的 3D 人类头像的框架,它使用了可训练的 NeRF 生成 3D 点密度和颜色特征以及预先训练的文本到图像扩散模型提供 2D 自监督。通过 SMPL 模型提供粗略的姿势和形状指导生成,并引入了包含规范空间和观察空间的双重空间设计,它们之间由 NeRF 学习的变形场联系,从规范空间将优化的纹理和几何转移到目标位置头像,添加正常一致性正则化以获得更生动的几何和纹理。经过广泛的评估,证明 DreamAvatar 明显优于现有方法,为文本和形状引导的 3D 人体生成设立了新的技术水准。
Apr, 2023
本文提出了一种新的基于 3D 可塑模型(3DMM)的文本引导头部生成方法,利用扩散模型生成多视图一致性辐射场的同时更新几何和纹理以生成和文本描述一致的 3D 头部化身,以此在一定程度上提高 3D 头部生成的精度和多样性。
Jul, 2023
通过使用法线贴图对文本到图像传播模型进行微调,使其能够适应文本到法线传播模型,从而提高对三维几何体的二维感知,同时保留从大规模数据集中学习到的先验知识,从而实现高质量和逼真的三维人体生成。
Oct, 2023