学习神经双工辐射场进行实时视图合成
本文介绍一种新的深度残差 MLP 网络用于学习 Neural Light Field(NeFL),通过从预训练的 NeRF 模型中转移知识进行数据精馏,以此消除 NeRF 的迭代采样问题,在合成和现实场景下的实验结果表明,与其他算法相比,我们的方法在节省计算资源和提高渲染质量方面具有明显的优势。
Mar, 2022
该论文提出了一种名为 Sparse Neural Radiance Grid 的新方法,它使用学习的稀疏体素网格表示,通过对神经辐射场(Neural Radiance Fields)进行预处理和存储(烘焙)来实现实时渲染。通过该方法,可以在以往的基础上保留了 NeRF 渲染精细几何细节和视图相关外观的能力,实现在普通硬件上进行实时渲染。
Mar, 2021
Neural Radiance Field (NeRF) is a framework representing a 3D scene with MLP, achieving state-of-the-art photorealistic image renderings for view synthesis and expanding capabilities to generate views from dynamic scene representations with fewer images for training.
Apr, 2023
提出了一种名为 NeRDF 的新表示方法,旨在实现实时的高效视图合成,通过基频和频率权重的网络预测实现单像素每次只进行一次网络转发,并通过辐射分布进行体素渲染计算,相比现有方法在速度、质量和网络尺寸方面具有更好的权衡,实现了与 NeRF 相似的网络大小下约 254 倍的加速。
Aug, 2023
通过将场景自适应地细分为轴对齐的包围盒,并使用树层次结构方法将较小的 NeRF 分配给不同大小的子空间,该论文提出了一种有效的适应性多 NeRF 方法,以加速针对复杂场景的神经渲染过程,以实现对特定场景部分的精细神经表示。
Oct, 2023
通过 NeRF 的方法来实现对于图像的 View Synthesis, 本文提到了 NeRF 的成功之处以及在应用于大规模无界三维场景中进行改进,使其在 360° 的拍摄模式下提高拍摄质量。
Oct, 2020
我们提出了一种名为 pixelNeRF 的学习框架,可以在仅有一张或几张输入图像的条件下预测连续的神经场景表示。与现有方法相比,我们的体系结构不需要每个场景都进行优化,从而使得在仅有一张图像的情况下就可以执行视角的合成和单幅图像的三维重建。经过大量的实验证明,我们的模型在形状、类别和实景等方面都优于现有的最先进技术。
Dec, 2020
该研究提出了一个新的框架用于实现对大型城市场景的高保真渲染,该框架运用了一种简化的多分辨率地面特征平面表示来捕捉场景,并通过另一个 NeRF 分支的位置编码输入进行补充,以联合学习的方式进行渲染。
Mar, 2023