GO-NeRF: 神经辐射场中生成虚拟物体
SIGNeRF 是一种快速和可控的 NeRF 场景编辑和场景整合对象生成的新方法,通过图像扩散模型的深度条件机制,在一次迭代中基于参考图像集合对原始 NeRF 进行更新和改进,从而实现三维一致性视图生成。
Jan, 2024
Blended-NeRF 是一种基于文本提示或图像贴片及 3D ROI 盒子的方法,利用预训练的语言 - 图像模型来操纵合成并混合一个新对象到现有的 NeRF 场景中实现对现有场景感兴趣区域的编辑,使用新颖的容积混合技术进行无痕混合。
Jun, 2023
提出一种基于神经辐射场和基于对象的神经散射函数的方法,能够在不重新训练的情况下,对静态及动态场景进行光线追踪模拟,拥有在新光照和新物品排列情况下泛化能力的物理准确的多物体场景组成渲染技术。
Dec, 2020
本研究使用神经辐射场(NeRF)从输入图像集合中学习高质量的三维物体类别模型,通过 2 组件 NeRF 模型,FiG-NeRF,实现场景的几何恒定背景和可变形前景的分离,从而仅使用光度监督和随意捕捉的物体图像即可学习准确的三维物体类别模型,并且可以进行精确清晰的无模分割和视图合成,并使用综合测量方法对方法进行定量评估。
Apr, 2021
使用多视图输入合成新视图图像,神经辐射场(NeRF)已成为三维视觉中的热门研究课题。本文提出了一种具有一般化语义神经辐射场(GSNeRF)的方法,该方法独特地将图像语义纳入合成过程中,从而能够对未见场景生成新视图图像和相关的语义地图。我们的 GSNeRF 由两个阶段组成:语义地理推理和深度引导的视觉渲染。前者能够从场景中观察多视图图像输入,提取语义和几何特征。在后者的指导下,利用得到的图像几何信息,进行图像和语义渲染,从而提高性能。我们的实验证实了 GSNeRF 在新视图图像和语义分割合成方面优于先前的工作,并进一步验证了我们的采样策略的有效性。
Mar, 2024
本论文提出了一个统一的神经辐射场(NeRF)框架,以有效地进行场景分解和合成,用于建模现实世界场景,通过学习不同对象的解耦 3D 表示进行场景编辑,同时为新颖视角合成建模整个场景表示。
Aug, 2023
本研究提出了 Obj-NeRF,一种综合管道,通过使用一个单一的提示从多视图图像中恢复特定对象的 3D 几何形状。该方法结合了 Segment Anything Model(SAM)的 2D 分割能力和 NeRF 的 3D 重建能力,并应用了几种有效技术。此外,研究还构建了一个包含多样化对象的大规模对象级 NeRF 数据集,可在各种下游任务中发挥作用。为了证明我们的方法的实用性,我们还将 Obj-NeRF 应用于包括对象去除、旋转、替换和重新上色在内的各种应用。
Nov, 2023
本文提出了一种名为 OR-NeRF 的新型对象移除流水线,它可以在单个视图上通过点或文本提示从 3D 场景中移除对象,并在更短的时间内实现更好的性能。
May, 2023
该研究通过提出 Enhance-NeRF 模型,增强神经放射场(NeRF)在虚拟现实和增强现实等领域的三维重建应用,改进了场景识别和学习能力,有望广泛应用于照明、材质和形状的室外场景重建,具备插拔式的易用性,并能够与其他 NeRF-based 模型轻松集成。
Jun, 2023
COV-NeRF 是一个用于合成真实世界训练数据的 NeRF 模型,通过从真实图像中提取对象并将其组合到新场景中,生成逼真的渲染图像和多种 2D 和 3D 监督信息,包括深度图、分割掩膜和网格,以快速消除各种感知模式之间的模拟与真实差距。
Mar, 2024