DoF-NeRF: 深度场景与神经辐射场相遇
通过修改光线投射模型以利用透镜光学,我们提出了一种改进的模型,并且能够更好地匹配实际摄像机的虚焦模糊行为,特别是在部分遮挡的情况下,从而实现更锐利的重建,将全焦点图像的峰值信噪比在合成和真实数据集上提高了最多 3 dB。
Jun, 2024
SfMNeRF 提出了一种基于神经辐射场的方法,结合自监督深度估计方法对样本进行重构,同时利用极线和光度一致性等约束构建 3D 场景几何图像,提高了神经辐射场的表现,实现了更好地合成新视角。
Apr, 2023
本文提出 DP-NeRF 框架来处理受影响的图片,通过两个物理先验从实际模糊处理中获得刚性模糊核以实现三维一致性,结合深度和模糊之间的关系来细化颜色构图误差,且通过实验结果得出 DP-NeRF 成功提高构建 NeRF 的感知质量,保证 3D 几何和外观一致性。
Nov, 2022
本文提出了一种基于光圈渲染神经辐射场 (AR-NeRF) 的方法,该方法能够在统一的射线跟踪框架中利用视点和景深线索,以无监督的方式学习深度和景深效果,为少视点数据集提供了潜在的应用。
Jun, 2022
该论文介绍了一种新的基于神经网络点云的辐射场模型 ——Point-NeRF,它结合了 NeRF 和深度多视图立体成像两种方法的优点,可用于高质量的视图合成和快速的场景几何重建。Point-NeRF 可以通过射线行走的渲染管道有效地渲染神经点特征,相对于 NeRF 具有快速训练和处理 3D 重建错误和异常数据的优势。
Jan, 2022
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
提出了一种名为 NeRDF 的新表示方法,旨在实现实时的高效视图合成,通过基频和频率权重的网络预测实现单像素每次只进行一次网络转发,并通过辐射分布进行体素渲染计算,相比现有方法在速度、质量和网络尺寸方面具有更好的权衡,实现了与 NeRF 相似的网络大小下约 254 倍的加速。
Aug, 2023
通过引入深度监督机制,结合 SFM(结构光运动)得到的 “自由” 深度监督信息,在学习 Radiance Fields 的过程中对射线的结束点进行分布的损失函数,并且证明这种监督方式简单有效,可以使得渲染图像更加精准,支持其它类型的深度监督。
Jul, 2021
提出一种名为 D"aRF 的新框架,通过在线互补训练将 monocular depth estimation (MDE)网络的强大几何学优势与 Neural radiance fields(NeRF)表示相结合,通过缓解单眼深度的歧义问题来提高其鲁棒性和一致性,在少量真实世界图像情况下实现了强大的 3D 重建和新视角综合,成功解决了现有方法在不同类型场景或数据集上的局限性。
May, 2023