SG-NeRF:使用场景图优化的神经表面重建
本文提出NeRF--用于学习相机内参和位姿,在各种相机运动情况下实现了准确的相机参数估计,并且在合成数据集BLEFF上实现了可比较的新视角渲染质量,为2D图像生成3D场景的任务提供了新思路。
Feb, 2021
提出了Stochastic Neural Radiance Fields (S-NeRF)作为一种泛化标准NeRF的方法,在机器学习中使用贝叶斯学习框架进行优化,得出可以量化与模型估计相关的不确定性的概率分布,为场景信息提供了更可靠的预测和置信度值。
Sep, 2021
本研究提出了一种名为Aug-NeRF的增强型神经辐射场模型,它利用鲁棒的数据增强技术来加强NeRF的训练,从而提高其在新视角合成和几何重建方面的表现,并且可以从严重受损的图像中恢复场景。
Jul, 2022
MVG-NeRF 组合了传统的多视角几何算法和神经辐射场 (NeRF) 用于基于图像的三维重建。我们提出使用像素级深度和法线来引导 NeRF 优化,以提高所估计表面的质量。实验结果表明,该方法可以从图像中获取干净的三维网格,同时在新视角合成方面具有竞争力的表现。
Oct, 2022
SCALAR-NeRF 是一个用于大规模神经场景重建的新框架,它采用编码器-解码器架构,通过处理3D点坐标生成编码特征,并生成包括有符号距离和颜色的几何值。通过在整个图像数据集上训练一个粗略全局模型,将图像分割成较小的块,每个块采用专用的局部模型。使用本地模型的特征空间中的全局模型解码器来提升不同块之间的重叠区域。通过有效且高效地融合这些局部模型的输出,我们的方法在大规模场景重建方面优于现有的NeRF方法,并展示了可扩展性。
Nov, 2023
通过提出称为Omni-Recon的框架,我们的工作旨在开发一个通用的NeRF来处理各种3D任务,其中关键见解是基于图像的渲染管道可以将2D图像特征提升到3D领域,从而在一种通用化的方式下扩展广泛研究的2D任务到3D世界。
Mar, 2024
CT-NeRF是一种仅使用RGB图像而不需要姿态和深度信息的增量重建优化管道,通过本地-全局捆绑调整和重投影几何图像距离约束,实现对相机姿态和场景结构的恢复,能够处理具有复杂轨迹的场景,并在新视角合成和姿态估计准确度方面优于现有方法。
Apr, 2024
本研究探讨了神经辐射场(NeRF)与基于高斯的方法在3D场景重建中的能力,针对传统的同步定位与地图构建(SLAM)系统进行了对比。研究发现,尽管NeRF在视图合成上表现优异,但处理速度较慢,而高斯方法则提供快速处理但场景完善性不足,对3D场景重建的未来发展具有重要的实际意义。
Aug, 2024