HD-Fusion: 多噪声估计支持的详细文本到 3D 生成
本文提出了一种使用基于文本转图像的扩散模型进行文本到 3D 合成的方法,该方法绕过了需要大规模标记的 3D 数据集和能够去噪的 3D 数据的限制,将 2D 的扩散模型作为先验,通过梯度下降优化 3D 模型(Neural Radiance Field),并使用概率密度蒸馏引入的损失函数将 2D 扩散模型与 3D 模型相结合。这种方法不需要 3D 训练数据,也不需要修改图像扩散模型,证明了使用预训练的图像扩散模型作为先验的有效性。
Sep, 2022
我们通过使用扩散先验来改进已有的文本生成 3D 模型的技术,提出了一种新的训练方法,并应用了深度监督和密度场正则化来提高几何表示和图像质量。实验结果表明我们的方法在提高真实感和多视角一致性方面优于现有技术。
May, 2023
我们提出了 Dual3D,一种新颖的文本到 3D 生成框架,仅需 1 分钟从文本生成高质量的 3D 资产。其中关键组件是双模态多视图潜在扩散模型,通过单个潜在去噪网络可以有效去噪多视图潜在,在 3D 模式下可以生成一致渲染的三面神经表面实现去噪。我们通过预训练的文本到图像潜在扩散模型调整多数模块,避免了从头训练的昂贵代价。同时,我们提出了双模态切换推理策略,仅使用 1/10 的去噪步骤和 3D 模式,在仅 10 秒的时间内成功生成高质量的 3D 资产,同时可以通过高效的纹理细化过程进一步增强 3D 资产的纹理,大量实验证明我们的方法在显著减少生成时间的同时提供了最先进的性能。
May, 2024
本文提出了一种基于文本引导扩散模型的 3D 场景生成、编辑和新视角合成方法,并重点讨论了 3D 一致性、本地编辑和单张图像训练等基础问题,取得了较好的效果。
Nov, 2022
本文提出了一种名为 Magic3D 的优化框架,利用低分辨率扩散先验和稀疏 3D 哈希格网结构,通过两阶段优化过程加速生成高质量 3D 网格模型,相对于 DreamFusion 优化用时减少一倍,同时也实现了更高分辨率的生成。用户调查表明,高达 61.7% 的用户更喜欢 Magic3D 模型。
Nov, 2022
通过使用大型预训练的文本到图像扩散模型生成的图像作为监督信号,我们提出了一种高效的文本到 3D 生成方法,在消费级显卡上仅需约 8 毫秒即可根据文本提示生成一个 3D 资产,并且不需要 3D 训练数据,通过提炼预训练图像扩散模型为高效文本到 3D 生成提供了一种替代方法。
Nov, 2023
以 Bidirectional Diffusion(BiDiff)为框架,同时整合 3D 和 2D 扩散过程,既保持了 3D 的真实性,又保留了 2D 纹理的丰富性,通过新颖的双向引导进一步提高一致性,将生成的过程从 3.4 小时减少到 20 分钟,以达到高质量、多样性和可伸缩性的 3D 生成。
Dec, 2023
本文提出一种新的方法,利用预训练的文字转图像模型作为先验知识,从真实世界数据中的单个去噪过程中生成多视角图像,并且通过在现有 U-Net 网络的每个块中整合 3D 体渲染和跨帧注意力层,设计出自回归生成方法,在任意视点上呈现更具一致性的 3D 图像。与现有方法相比,我们的方法生成的结果是一致的,并且具有优秀的视觉质量(FID 降低 30%,KID 降低 37%)。
Mar, 2024
通过将预训练的二维扩散模型引入神经光辐射场(NeRFs),文本到三维生成方法取得了巨大的进展,其中许多最先进的方法通常使用得分蒸馏采样(SDS)来优化 NeRF 表示,该方法通过预训练的文本条件的二维扩散模型(例如 ImData)监督 NeRF 优化。然而,由这种预训练扩散模型提供的监督信号仅依赖于文本提示,并不限制多视角一致性。为了将跨视角一致性引入扩散先验中,一些最近的工作通过多视角数据微调二维扩散模型,但仍缺乏细粒度的视图连贯性。为了解决这个挑战,我们将多视角图像条件纳入 NeRF 优化的监督信号中,明确强制执行细粒度的视图一致性。通过这种更强的监督,我们提出的文本到三维方法有效地减轻了由于过高密度而产生的浮动点和由于密度不足而形成的完全空白空间。我们在 T$^3$Bench 数据集上的定量评估表明,我们的方法在现有的文本到三维方法中达到了最先进的性能。我们将公开发布代码。
Dec, 2023
我们提出了一个新的框架 DiffusionGAN3D,通过结合 3D GANs 和扩散先验来增强文本引导的 3D 领域适应和生成,该方法在领域适应和文本到头像任务中取得了优异的生成质量和效率结果。
Dec, 2023