GNeRF:基于 GAN 的神经辐射场无需姿态相机
本文介绍了一种新的基于高斯激活函数的神经辐射场模型 ——Gaussian Activated neural Radiance Fields(GARF),该模型不需要先验的相机位姿信息,且在高保真重建和位姿估计方面性能优于当前的最先进技术。
Apr, 2022
iNeRF 是一种基于 “倒置” 神经辐射场(NeRF)的框架,它可以通过合成图像与观察图像像素之间的残差最小化来实现无网格姿态估计。实验表明,iNeRF 可以应用于复杂的真实场景中,还可以执行目录级别物体姿态估计。
Dec, 2020
使用 UP-NeRF(无约束姿势先验的神经辐射场)优化 NeRF 以处理无约束图像集合和瞬态遮挡,通过优化颜色不敏感特征场和独立模块来处理瞬态遮挡,实现更鲁棒的姿势估计及深度监督。在具有挑战性的互联网照片集合(Phototourism 数据集)中,我们的方法相比基准方法如 BARF 及其变体表现出优越性能。
Nov, 2023
这篇论文提出了一种基于多视角几何约束、利用稀疏输入视角和深度一致性损失函数的方法: Sparse Pose Adjusting Radiance Field (SPARF),以在仅有少数宽基线输入图像的情况下 (尽低至 3 张),实现新视角合成,同时在多个具有挑战性的数据集上取得了新的最先进结果。
Nov, 2022
使用多视图输入合成新视图图像,神经辐射场(NeRF)已成为三维视觉中的热门研究课题。本文提出了一种具有一般化语义神经辐射场(GSNeRF)的方法,该方法独特地将图像语义纳入合成过程中,从而能够对未见场景生成新视图图像和相关的语义地图。我们的 GSNeRF 由两个阶段组成:语义地理推理和深度引导的视觉渲染。前者能够从场景中观察多视图图像输入,提取语义和几何特征。在后者的指导下,利用得到的图像几何信息,进行图像和语义渲染,从而提高性能。我们的实验证实了 GSNeRF 在新视图图像和语义分割合成方面优于先前的工作,并进一步验证了我们的采样策略的有效性。
Mar, 2024
本文介绍了一种新型的优化算法 DroNeRF,用于通过少量图像实现单目相机无人机在物体周围自主定位,实现实时三维重建。文章使用 Neural Radiance Fields 或 NeRF,以只依赖于物体几何学而不使用任何外部定位系统的方式计算单个无人机的最佳姿态,并评估了生成的新视图的质量,表现出更好的感知度。
Mar, 2023
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
CT-NeRF 是一种仅使用 RGB 图像而不需要姿态和深度信息的增量重建优化管道,通过本地 - 全局捆绑调整和重投影几何图像距离约束,实现对相机姿态和场景结构的恢复,能够处理具有复杂轨迹的场景,并在新视角合成和姿态估计准确度方面优于现有方法。
Apr, 2024