幕后之王:用密度场进行单视角重建
MVG-NeRF 组合了传统的多视角几何算法和神经辐射场 (NeRF) 用于基于图像的三维重建。我们提出使用像素级深度和法线来引导 NeRF 优化,以提高所估计表面的质量。实验结果表明,该方法可以从图像中获取干净的三维网格,同时在新视角合成方面具有竞争力的表现。
Oct, 2022
通过构建多尺度编码体积和提供多尺度几何信息给 NeRF 模型,本文在新颖视角合成和密集几何建模方面提出了一种先进行深度预测和辐射场重建,以使构建的体积尽可能接近场景中物体的表面和渲染的深度更准确,然后通过深度引导的邻域特征融合,提高点体积特征的质量,从而实现了对场景进行优化而不是对单个场景优化的结果。
Jul, 2023
通过引入深度监督机制,结合 SFM(结构光运动)得到的 “自由” 深度监督信息,在学习 Radiance Fields 的过程中对射线的结束点进行分布的损失函数,并且证明这种监督方式简单有效,可以使得渲染图像更加精准,支持其它类型的深度监督。
Jul, 2021
该论文提出了一种新的三维表示方法 Neural Density-Distance Field (NeDDF),同时约束距离场和密度场,从而实现了稳健的初始化和高质量的配准,并在新视角合成方面达到了与 NeRF 相当的结果。
Jul, 2022
提出了一种名为 NeRDF 的新表示方法,旨在实现实时的高效视图合成,通过基频和频率权重的网络预测实现单像素每次只进行一次网络转发,并通过辐射分布进行体素渲染计算,相比现有方法在速度、质量和网络尺寸方面具有更好的权衡,实现了与 NeRF 相似的网络大小下约 254 倍的加速。
Aug, 2023
SfMNeRF 提出了一种基于神经辐射场的方法,结合自监督深度估计方法对样本进行重构,同时利用极线和光度一致性等约束构建 3D 场景几何图像,提高了神经辐射场的表现,实现了更好地合成新视角。
Apr, 2023
本研究提出了将本应在神经网络评估后再进行渲染的颜色,改为直接渲染出射线查询的特征向量,从而大幅降低了神经网络评估的复杂度和计算开销,并取得了较好的渲染质量。
May, 2023