UniDream:统一扩散先验用于可重灯效的文本生成三维
本文提出了一种使用基于文本转图像的扩散模型进行文本到 3D 合成的方法,该方法绕过了需要大规模标记的 3D 数据集和能够去噪的 3D 数据的限制,将 2D 的扩散模型作为先验,通过梯度下降优化 3D 模型(Neural Radiance Field),并使用概率密度蒸馏引入的损失函数将 2D 扩散模型与 3D 模型相结合。这种方法不需要 3D 训练数据,也不需要修改图像扩散模型,证明了使用预训练的图像扩散模型作为先验的有效性。
Sep, 2022
通过结合三维几何先验和二维扩散先验,GeoDream 方法能够生成具有一致的三维几何结构的文本到三维模型,并提供更高分辨率、真实感的渲染和更好的语义一致性。
Nov, 2023
该论文提出了第一种使用扩散模型作为先验的高精度三维面部 BRDF 重建方法,通过利用高质量的 UV 数据集进行渲染,使用样本处理过程来训练扩散模型,并在测试时通过对给定图像进行三维可塑模型拟合和 UV 纹理解耦,从而能够单个去噪步骤中完成掩蔽区域的纹理完成和未知反射组分的纹理自动填充,相较于现有方法,该方法更能忠实地和一致地估算反射率。
May, 2023
BoostDream 是一个高效的插件式 3D 细化方法,能够将粗糙的 3D 资产转化为高质量的 3D 资产,通过引入 3D 模型蒸馏、新颖的多视角 SDS 损失设计以及使用提示和多视角一致的法线图作为指导。与常规基于 SDS 方法相比,BoostDream 在生成高质量的 3D 资产方面表现出色,克服了双面问题,从而实现了 3D 生成过程的效率和质量的重大进展。
Jan, 2024
本文提出了一种名为 Grounded-Dreamer 的有效两阶段方法,通过使用预训练的多视角扩散模型,在准确遵循复杂的、构成性的文本提示的同时实现高保真度,生成能够准确遵循复杂、构成性文本提示的 3D 资产。
Apr, 2024
通过使用扩散生成模型,我们提出了 Dream-in-4D 方法,可以有效地实现从文本和图像生成动态的 3D 场景,该方法包括利用扩散指导学习高质量的静态 3D 资源、使用可变形神经光辐射场将学习的静态资源与形变分离、以及使用多分辨率特征网格和位移总变差损失来学习具有视频扩散指导的运动。通过用户偏好研究,我们证明了与基线方法相比,我们的方法在图像质量、动态一致性和文本保真度方面显著提高了文本到 4D 生成的效果。由于其运动分离表示,我们的方法还可以轻松应用于可控的生成,其中外观由一个或多个图像定义,无需修改运动学习阶段。因此,我们的方法首次提供了一种统一的方法,用于文本到 4D、图像到 4D 和个性化 4D 生成任务。
Nov, 2023
本文提出了一种基于文本引导扩散模型的 3D 场景生成、编辑和新视角合成方法,并重点讨论了 3D 一致性、本地编辑和单张图像训练等基础问题,取得了较好的效果。
Nov, 2022
通过结合大规模的视觉语言模型和已存在的先验知识,我们提出了 DreamPBR,一种新颖的基于扩散的生成框架,用于创建由文本和多模态控制引导的具有空间变化外观属性的材料,从而提供高度可控性和多样性。通过我们的方法,在材料 creation 和编辑应用方面展示了 DreamPBR 的多功能性和用户友好性。
Apr, 2024
我们提出 MVDream,这是一个多视图扩散模型,能够根据给定的文本提示生成几何一致的多视图图像。通过利用在大规模 Web 数据集上预训练的图像扩散模型和从 3D 资源渲染的多视图数据集,所得到的多视图扩散模型可以实现 2D 扩散的概括性和 3D 数据的一致性。该模型可以被应用为 3D 生成的多视图先验,通过 Score Distillation Sampling 来解决现有 2D-lifting 方法中的 3D 一致性问题,从而极大地提高了稳定性。最后,我们展示了多视图扩散模型也可以在少量样本设置下进行微调,用于个性化的 3D 生成,即 DreamBooth3D 应用中,在学习主体身份之后可以保持一致性。
Aug, 2023
通过利用 2D 扩散先验提高文本到 3D 内容生成的质量和细节,本文提出了一种结合多个噪声估计过程和预训练的 2D 扩散先验的新方法,实验证明该方法相较于基线能够生成更高质量的细节。
Jul, 2023