使用混合的神经辐射场(HybridNeRF)方法,将大多数对象作为表面渲染,同时以体积化的方式对挑战性区域进行建模,以提高视图合成的质量和实时性。
Dec, 2023
本文介绍了一种使用深度神经网络进行视图综合和图像合成的方法,通过连续的体积场函数来优化复杂场景的视图,并在神经辐射场方面取得了最新的研究成果。
Mar, 2020
该论文介绍了一种新的基于神经网络点云的辐射场模型 ——Point-NeRF,它结合了 NeRF 和深度多视图立体成像两种方法的优点,可用于高质量的视图合成和快速的场景几何重建。Point-NeRF 可以通过射线行走的渲染管道有效地渲染神经点特征,相对于 NeRF 具有快速训练和处理 3D 重建错误和异常数据的优势。
Jan, 2022
该论文提出了一种名为 Sparse Neural Radiance Grid 的新方法,它使用学习的稀疏体素网格表示,通过对神经辐射场(Neural Radiance Fields)进行预处理和存储(烘焙)来实现实时渲染。通过该方法,可以在以往的基础上保留了 NeRF 渲染精细几何细节和视图相关外观的能力,实现在普通硬件上进行实时渲染。
Mar, 2021
本文提出了一种紧凑且直接预测射线上积分辐射度的新型神经光场表示方法,支持小基线光场数据集每像素一次网络评估的渲染,并可应用于大基线场景。
Dec, 2021
本篇论文提出了一种新的方法,通过将 NeRFs 融合为可与高度并行的图形渲染管线完全兼容的高效网格神经表示,使用屏幕空间卷积,来提高外观的质量和整个框架的表现。
Apr, 2023
该研究提出一种新的方法,利用极线几何法提取采样自场景的块,将其通过一系列变换器进行预处理后预测目标采样射线的颜色,从而在不需要深度特征和 NeRF-like 卷积体积渲染的情况下,实现对未见过的场景的新视图综合,其具有更好的泛化性能,并且即使使用比以前工作少得多的数据进行训练,也能胜过现有技术水平。
Jul, 2022
我们提出了一种超快速收敛的方法,通过从拍摄场景的一组图像中重建场景辐射场来最新的视点合成,该方法采用密度体素网格表示场景几何和 shallow network 表示复杂的视角相关的外观,同时采用了后激活插值和一些先验约束技术,从而使训练时间缩短到 15 分钟以内,并达到了前沿的质量水平。
Nov, 2021
本文综述了近年来神经辐射场(NeRF)技术在 3D 渲染和视角合成领域的最新研究进展和其不同的架构设计。
Jun, 2023
提出了一种名为 NeRDF 的新表示方法,旨在实现实时的高效视图合成,通过基频和频率权重的网络预测实现单像素每次只进行一次网络转发,并通过辐射分布进行体素渲染计算,相比现有方法在速度、质量和网络尺寸方面具有更好的权衡,实现了与 NeRF 相似的网络大小下约 254 倍的加速。
Aug, 2023