DistGrid:具有分布式多分辨率哈希网格的可扩展场景重建
该研究提出了一个新的框架用于实现对大型城市场景的高保真渲染,该框架运用了一种简化的多分辨率地面特征平面表示来捕捉场景,并通过另一个 NeRF 分支的位置编码输入进行补充,以联合学习的方式进行渲染。
Mar, 2023
通过将场景自适应地细分为轴对齐的包围盒,并使用树层次结构方法将较小的 NeRF 分配给不同大小的子空间,该论文提出了一种有效的适应性多 NeRF 方法,以加速针对复杂场景的神经渲染过程,以实现对特定场景部分的精细神经表示。
Oct, 2023
我们提出了 Drone-NeRF 框架,通过使用神经辐射场(NeRF)来增强适用于无人机倾斜摄影的无界大规模场景的高效重建,将场景根据摄像机位置和深度可见性划分为均匀的子块,在 NeRF 的并行训练中训练子场景,然后合并为完整场景,通过优化相机姿态和引导 NeRF 使用均匀采样器来完善模型,集成选择的样本提高准确性,哈希编码融合 MLP 加速密度表示,生成 RGB 和深度输出,该框架解决了与场景复杂性、渲染效率和无人机获取图像准确性相关的挑战,展示了有前景的能力。
Aug, 2023
SCALAR-NeRF 是一个用于大规模神经场景重建的新框架,它采用编码器 - 解码器架构,通过处理 3D 点坐标生成编码特征,并生成包括有符号距离和颜色的几何值。通过在整个图像数据集上训练一个粗略全局模型,将图像分割成较小的块,每个块采用专用的局部模型。使用本地模型的特征空间中的全局模型解码器来提升不同块之间的重叠区域。通过有效且高效地融合这些局部模型的输出,我们的方法在大规模场景重建方面优于现有的 NeRF 方法,并展示了可扩展性。
Nov, 2023
NeRFusion 提出了一种方法,通过将 NeRF 和 TSDF-based fusion 技术结合起来,实现了大规模室内场景的高效重建和逼真渲染,使用全新的循环神经网络来递增地重建实时稀疏场景表示,进一步提高了渲染质量,取得了大规模室内和小型物体场景的最先进质量,并比 NeRF 和其他最新方法重建速度更快。
Mar, 2022
我们提出了一种超快速收敛的方法,通过从拍摄场景的一组图像中重建场景辐射场来最新的视点合成,该方法采用密度体素网格表示场景几何和 shallow network 表示复杂的视角相关的外观,同时采用了后激活插值和一些先验约束技术,从而使训练时间缩短到 15 分钟以内,并达到了前沿的质量水平。
Nov, 2021
使用渲染和信号处理中的思想,将 mip-NeRF 360 和基于网格的模型相结合,使误差比之前的技术低 8%-76%,并且训练速度比 mip-NeRF 360 快 22 倍。
Apr, 2023
本文提出了一种基于先进的体素网格优化的快速变形辐射场方法来处理动态场景,该方法包括两个模块,采用变形网格存储动态特征和密度和色彩网格来模拟场景几何和密度,并将遮挡进行显式建模以进一步提高渲染质量。实验结果表明,本方法在仅用 20 分钟的训练时间下,达到了与 D-NeRF 相当的性能,比 D-NeRF 快 70 倍以上,显示了该方法的高效性。
Jun, 2022
利用神经辐射场(NeRFs)建立大规模的高楼或多个城市街区跨度的交互式 3D 环境,研究通过分析可见性统计信息,提出特殊化参数不同区域的稀疏网络结构、基于几何聚类的数据并行算法,并对 NeRF 快速渲染程序提出了新方法,有效解决了训练速度和渲染速度等多项挑战。
Dec, 2021