Dream3D: 使用 3D 形状先验和文本到图像扩散模型进行零样本文本到三维合成
本文提出了一种使用基于文本转图像的扩散模型进行文本到 3D 合成的方法,该方法绕过了需要大规模标记的 3D 数据集和能够去噪的 3D 数据的限制,将 2D 的扩散模型作为先验,通过梯度下降优化 3D 模型(Neural Radiance Field),并使用概率密度蒸馏引入的损失函数将 2D 扩散模型与 3D 模型相结合。这种方法不需要 3D 训练数据,也不需要修改图像扩散模型,证明了使用预训练的图像扩散模型作为先验的有效性。
Sep, 2022
Dream Fields 提出了一种结合神经渲染和多模态图像和文本表示的方法,能够通过自然语言描述合成各种几何形状和颜色的 3D 对象。
Dec, 2021
TextCraft 使用多分辨率和离散的潜在空间生成高保真且多样化的 3D 模型,过程中使用 CLIP 作为条件,并结合变形器模型和无分类器引导方法,优于其他同领域研究。
Nov, 2022
本文提出了一种名为 Magic3D 的优化框架,利用低分辨率扩散先验和稀疏 3D 哈希格网结构,通过两阶段优化过程加速生成高质量 3D 网格模型,相对于 DreamFusion 优化用时减少一倍,同时也实现了更高分辨率的生成。用户调查表明,高达 61.7% 的用户更喜欢 Magic3D 模型。
Nov, 2022
通过输入文本和风格参考图像,我们提出了一种生成风格化的三维对象的方法,利用神经辐射场重建来合成与文本提示一致内容和风格参考图像的三维模型,并通过样式化评分蒸馏损失来指导文本到三维的优化过程,输出视觉合理的几何和外观。经与现有方法的比较表明我们方法在视觉上表现强大,同时通过用户研究的定量结果得到进一步支持。
Jun, 2024
通过利用预训练的 T2I 扩散模型,借助预定时间步长安排,将文本到 3D 优化提升为多视角图像到图像转换问题,我们提出了一种新的优化算法和实用的三阶段粗到精的文本到 3D 优化框架 DreamFlow,实现快速生成高质量、高分辨率(1024x1024)的 3D 内容。
Mar, 2024
我们通过使用扩散先验来改进已有的文本生成 3D 模型的技术,提出了一种新的训练方法,并应用了深度监督和密度场正则化来提高几何表示和图像质量。实验结果表明我们的方法在提高真实感和多视角一致性方面优于现有技术。
May, 2023
基于预训练的 CLIP 模型,我们提出了一种从输入的文本提示中生成 3D 模型的零样本生成技术。通过对网格参数的优化,我们可以直接生成形状、纹理或两者,而无需进行培训。
Mar, 2022
通过将预训练的二维扩散模型引入神经光辐射场(NeRFs),文本到三维生成方法取得了巨大的进展,其中许多最先进的方法通常使用得分蒸馏采样(SDS)来优化 NeRF 表示,该方法通过预训练的文本条件的二维扩散模型(例如 ImData)监督 NeRF 优化。然而,由这种预训练扩散模型提供的监督信号仅依赖于文本提示,并不限制多视角一致性。为了将跨视角一致性引入扩散先验中,一些最近的工作通过多视角数据微调二维扩散模型,但仍缺乏细粒度的视图连贯性。为了解决这个挑战,我们将多视角图像条件纳入 NeRF 优化的监督信号中,明确强制执行细粒度的视图一致性。通过这种更强的监督,我们提出的文本到三维方法有效地减轻了由于过高密度而产生的浮动点和由于密度不足而形成的完全空白空间。我们在 T$^3$Bench 数据集上的定量评估表明,我们的方法在现有的文本到三维方法中达到了最先进的性能。我们将公开发布代码。
Dec, 2023
通过使用扩散生成模型,我们提出了 Dream-in-4D 方法,可以有效地实现从文本和图像生成动态的 3D 场景,该方法包括利用扩散指导学习高质量的静态 3D 资源、使用可变形神经光辐射场将学习的静态资源与形变分离、以及使用多分辨率特征网格和位移总变差损失来学习具有视频扩散指导的运动。通过用户偏好研究,我们证明了与基线方法相比,我们的方法在图像质量、动态一致性和文本保真度方面显著提高了文本到 4D 生成的效果。由于其运动分离表示,我们的方法还可以轻松应用于可控的生成,其中外观由一个或多个图像定义,无需修改运动学习阶段。因此,我们的方法首次提供了一种统一的方法,用于文本到 4D、图像到 4D 和个性化 4D 生成任务。
Nov, 2023