单级扩散 NeRF:一种统一的三维生成和重建方法
提出 NeRDi—— 一种基于 2D 扩散模型通用图像先验的单视角 NeRF 综合框架,借助自然语言模型引导扩散模型进行图像合成,结合估算的深度图的几何约束,优化重建的 NeRF 表示,进而实现高质量的全景图像生成。
Dec, 2022
使用少量照片重建现实场景的方法,通过在合成和多视图数据集上训练的扩散先验来对新视角的合成进行规范化,从而在超约束区域综合出逼真的几何和纹理,同时保持观察区域的外观。与以前的少视图 NeRF 重建方法相比,我们在各种真实世界数据集上进行了广泛评估,包括正向和 360 度场景,并展示了显著的性能改进。
Dec, 2023
本文提出了一种名为 Edit-DiffNeRF 的框架,通过对已经训练好的扩散模型的潜在语义空间进行微调以有效地合并这些指令,从而实现对 3D 场景的微调,同时通过多视图语义一致性损失确保在不同的视图中重建潜在的语义嵌入。
Jun, 2023
DiSR-NeRF 是一个利用扩散引导的框架来实现视图一致的超分辨率 NeRF,该方法通过利用现有的强大 2D 超分辨率模型来规避高分辨率参考图像的要求,并通过 NeRF 的内在多视图一致性属性提出了迭代的 3D 同步技术来减轻 LR 渲染图像之间不一致的问题。通过 Renoised Score Distillation,我们进一步引入了一种新颖的用于 2D 图像分辨率的评分蒸馏目标函数。我们的 DiSR-NeRF 在合成和真实世界数据集上进行的定性和定量结果表明,与现有方法相比,我们的方法在 NeRF 超分辨率上可以取得更好的效果。
Apr, 2024
SIGNeRF 是一种快速和可控的 NeRF 场景编辑和场景整合对象生成的新方法,通过图像扩散模型的深度条件机制,在一次迭代中基于参考图像集合对原始 NeRF 进行更新和改进,从而实现三维一致性视图生成。
Jan, 2024
我们通过使用扩散先验来改进已有的文本生成 3D 模型的技术,提出了一种新的训练方法,并应用了深度监督和密度场正则化来提高几何表示和图像质量。实验结果表明我们的方法在提高真实感和多视角一致性方面优于现有技术。
May, 2023
我们将来自未知姿态的多视图重建问题作为一个生成建模问题。通过一组未标注的场景的 2D 图像,我们的方法同时学习了一个网络来预测从 2D 图像输入中的相机姿态,并学习了用于 3D 场景的神经辐射场(NeRF)的参数。通过在标准去噪目标下使用去噪扩散概率模型(DDPM)将姿态预测网络和 NeRF 结合在一起并训练系统来推动学习进展。我们的框架要求系统通过预测图像的姿态并渲染 NeRF 来完成去噪输入 2D 图像的任务。学习去噪因此迫使系统同时学习底层的 3D NeRF 表示和从图像到摄像机外参数的映射。为了促进后者,我们设计了一个自定义的网络架构来将姿态表示为一个分布,从而在仅进行去噪训练时具备发现视图对应关系的隐式能力。这种技术允许我们的系统成功构建 NeRFs,并在竞争方法失败的具有挑战性的场景中使用。在训练结束时,我们学习到的 NeRF 可以被提取并用作 3D 场景模型;我们的完整系统可以用于采样新的相机姿态并生成新的视角图像。
Jun, 2024
我们提出了一种新颖的 3D 生成方法 DMV3D,该方法使用基于变压器的 3D 大型重建模型对多视差扩散进行去噪。我们的重建模型采用了三平面 NeRF 表示,并且可以通过 NeRF 重建和渲染对嘈杂的多视差图像进行去噪,能在单个 A100 GPU 上实现约 30 秒的单阶段 3D 生成。我们使用大规模多视差图像数据集训练 DMV3D,仅使用图像重建损失,而不访问 3D 资产。我们展示了在需要对未见过的物体部分进行概率建模以生成具有清晰纹理的多样重建的单图像重建问题上的最新成果,以及优于以往的 3D 扩散模型的高质量文本到 3D 生成结果。我们的项目网站位于此 https URL。
Nov, 2023
我们提出了一个统一框架,旨在增强三维生成任务的扩散先验。通过优化三维模型和扩散先验,我们的方法在性能和实施复杂性之间提供了多种配置,并在文本到三维生成领域取得了显著成果,成为新的技术先驱。
Dec, 2023