PrimDiffusion: 三维人体生成的体积原始扩散
通过构建新的模型,通过将 2D 扩散模型和 3D 重建模型进行紧密耦合,我们可以从单个 RGB 图像中创建逼真的头像,并实现几何和外观上的高保真度。
Jun, 2024
DiffusionAvatars 通过合成高保真度的三维头像人物,提供了对姿态和表情的直观控制。我们提出了一种基于扩散的神经渲染器,利用通用的二维先验生成引人注目的人脸图像。通过从目标视点渲染神经参数头模型(NPHM)对表情和头部姿态进行粗略指导,我们作为人物的代理几何体。此外,为了增强精细面部表情的建模,我们直接在 NPHM 中通过交叉注意力采用从 NPHM 获得的表情代码来调整 DiffusionAvatars。最后,为了在不同视点和表情之间综合一致地细化表面细节,我们通过 NPHM 的规范空间在头部表面上装配可学习的空间特征。我们使用人物的 RGB 视频和相应跟踪的 NPHM 网格对 DiffusionAvatars 进行训练,并在自我重演和动画场景中测试所得到的头像。我们的实验证明,DiffusionAvatars 在生成人物的新姿态和表情的时候能够产生时间上连贯而视觉上有吸引力的视频,优于现有方法。
Nov, 2023
本研究工作旨在通过将 3D 可变模型整合到最新的多视角一致性扩散方法中,增强生成扩散模型在创建可控、照片般逼真的人类头像任务中的质量和功能。我们的实验证明了在基于关节的 3D 模型的准确约束下,生成流水线模型在单图像的新视角合成任务上的性能改进,更重要的是,这种整合实现了面部表情和身体姿势控制在生成过程中的无缝和准确融入。据我们所知,我们提出的框架是第一个允许从未见过的单一图像创建完全 3D 一致、可动画和照片般逼真的人类头像的扩散模型;广泛的定量和定性评估证明了我们的方法在新视角和新表情合成任务上相对于现有最先进的头像创建模型的优势。
Jan, 2024
PolyDiff 是第一个能够直接生成逼真且多样化的三维多边形网格的扩散式方法。通过在多边形网格数据结构上本地化进行离散去噪扩散概率建模,我们能够学习顶点的几何特性和面的拓扑特性,从而生成高质量的三维多边形网格,适用于后续的三维工作流集成。
Dec, 2023
DiffHuman 是一种基于概率的方法,通过一个单一的 RGB 图像实现逼真的三维人体重建。与确定性方法不同,DiffHuman 根据二维图像预测三维重建的概率分布,可以生成与图像一致的多个详细的三维人体模型。此外,DiffHuman 还引入了一个生成器神经网络,可以以大幅减少的运行时间进行渲染,从而实现了一种新颖的双分支扩散框架。在实验中,DiffHuman 在重建可见表面方面与现有技术不相上下,并且可以对输入图像中未见或不确定的部分生成多样且详细的重建结果。
Mar, 2024
本文提出了 RenderDiffusion,这是第一个用于 3D 生成和推断的扩散模型,使用仅有的单眼 2D 监督进行训练,并采用新颖的图像去噪架构进行中间的三维表示,以提供强烈归纳结构,同时仅需要 2D 监督。我们在 FFHQ、AFHQ、ShapeNet 和 CLEVR 数据集上评估了 RenderDiffusion,展示了生成 3D 场景和从 2D 图像中推理 3D 场景的竞争性表现。此外,我们的扩散型方法还使我们能够使用 2D 修复来编辑 3D 场景。
Nov, 2022
通过使用法线贴图对文本到图像传播模型进行微调,使其能够适应文本到法线传播模型,从而提高对三维几何体的二维感知,同时保留从大规模数据集中学习到的先验知识,从而实现高质量和逼真的三维人体生成。
Oct, 2023
通过引入第一种能够快速进行真实世界三维场景的详细重建和生成的推广模型,我们在本研究中提出了三个贡献:首先,引入了一种新的神经场景表示方法 IB-planes,能够有效准确地表示大型三维场景,并在需要时动态分配更多容量以捕捉每张图像中可见的细节;其次,我们提出了一种去噪扩散框架,通过仅使用二维图像而不需要额外的监督信号(如掩码或深度)学习对这种新型三维场景表示的先验知识,从而支持三维重建和生成;第三,我们开发了一种避免将基于图像渲染与扩散模型集成时产生平凡三维解决方案的原则性方法,即通过丢弃某些图像的表示。我们在几个具有挑战性的真实和合成图像数据集上评估了该模型,并在生成、新视图合成和三维重建方面展示了优越的结果。
Feb, 2024
本文提出了一种新颖的概率生成建模方法,称为 Point-Voxel Diffusion(PVD),它是一个统一的、概率的公式,用于无条件的形状生成和多模态形状完成。PVD 将降噪扩散模型与 3D 形状的混合点 - 体素表示相结合,并通过优化变分下界来训练(条件)似然函数。实验证明了 PVD 的高保真度合成能力,以及从单视角深度扫描的真实对象中生成多个完成结果的能力。
Apr, 2021