SIGNeRF: 基于场景集成生成的神经辐射场
本文提出了一种名为 Edit-DiffNeRF 的框架,通过对已经训练好的扩散模型的潜在语义空间进行微调以有效地合并这些指令,从而实现对 3D 场景的微调,同时通过多视图语义一致性损失确保在不同的视图中重建潜在的语义嵌入。
Jun, 2023
本文提出了一种叫做 NeRF 综合的新任务,利用 NeRF 补丁范例的结构内容构建大尺寸的新辐射场,我们提出了一种两阶段的方法来综合新场景,控制场景的照明效果采用阴影指导而不是分离场景,我们表明了我们的方法可以生成高质量的结果,对曲面上的新场景进行综合,增强了我们所提出的 NeRF 综合方法的实用性。
Jun, 2023
使用多视图输入合成新视图图像,神经辐射场(NeRF)已成为三维视觉中的热门研究课题。本文提出了一种具有一般化语义神经辐射场(GSNeRF)的方法,该方法独特地将图像语义纳入合成过程中,从而能够对未见场景生成新视图图像和相关的语义地图。我们的 GSNeRF 由两个阶段组成:语义地理推理和深度引导的视觉渲染。前者能够从场景中观察多视图图像输入,提取语义和几何特征。在后者的指导下,利用得到的图像几何信息,进行图像和语义渲染,从而提高性能。我们的实验证实了 GSNeRF 在新视图图像和语义分割合成方面优于先前的工作,并进一步验证了我们的采样策略的有效性。
Mar, 2024
利用拓展到神经辐射场(NeRF)的编辑技术来编辑场景是复杂的,本文提出了利用 NeRF 场景的几何信息作为桥梁来整合 2D 编辑的方法,并引入了一种填充方法来确保对不同图像的 2D 编辑具有鲁棒性。结果表明,该方法比现有的文本驱动 NeRF 场景编辑方法实现了更加一致、逼真和详细的编辑效果。
Apr, 2024
该研究提出了 NeRFReN,它是基于 NeRF 的,能够建模带有反射的场景,并将场景分为透射和反射组件,用单独的神经辐射场来建模两个组件,以实现高质量的新视图综合和深度估计结果。
Nov, 2021
ZIGNeRF 是一种基于 Zero-shot GAN 反演和新颖的转换器进行图像生成的模型,其可以从单个输入图像生成多视图图像,分离对象与背景并实现 360 度旋转或深度和水平平移。
Jun, 2023
本文提出了一种称为 SSDNeRF 的新方法,它使用表达能力强的 Diffusion Model 从多视图图像中学习神经辐射场(NeRF)的可推广先验,实现 3D 重建和先验学习的同时,证明了该方法在无条件生成和单 / 稀疏视图 3D 重建等任务上具有与任务特定方法媲美或优于其的鲁棒性结果。
Apr, 2023
本文提出了一种新颖的框架,可以利用扩散模型实现对神经场景中的 3D 内容进行编辑,此方法可以有效地改善 NeRF 的可编辑性、多样性和应用范围,验证结果表明在不同的文本提示下,该算法对 NeRF 中的 3D 目标具有改进的效果。
Jun, 2023