DGNR:大型驾驶场景的密度引导神经点渲染
该论文介绍了一种新的基于神经网络点云的辐射场模型 ——Point-NeRF,它结合了 NeRF 和深度多视图立体成像两种方法的优点,可用于高质量的视图合成和快速的场景几何重建。Point-NeRF 可以通过射线行走的渲染管道有效地渲染神经点特征,相对于 NeRF 具有快速训练和处理 3D 重建错误和异常数据的优势。
Jan, 2022
我们提出了 Drone-NeRF 框架,通过使用神经辐射场(NeRF)来增强适用于无人机倾斜摄影的无界大规模场景的高效重建,将场景根据摄像机位置和深度可见性划分为均匀的子块,在 NeRF 的并行训练中训练子场景,然后合并为完整场景,通过优化相机姿态和引导 NeRF 使用均匀采样器来完善模型,集成选择的样本提高准确性,哈希编码融合 MLP 加速密度表示,生成 RGB 和深度输出,该框架解决了与场景复杂性、渲染效率和无人机获取图像准确性相关的挑战,展示了有前景的能力。
Aug, 2023
本研究提出了将本应在神经网络评估后再进行渲染的颜色,改为直接渲染出射线查询的特征向量,从而大幅降低了神经网络评估的复杂度和计算开销,并取得了较好的渲染质量。
May, 2023
利用多模态数据结合深度学习模型进行密集三维重建,从而提高自动驾驶中的标注验证、数据扩充、缺失 LiDAR 系统的地面真值注释以及自动标记准确性的应用效果。
Feb, 2024
该研究提出了一个新的框架用于实现对大型城市场景的高保真渲染,该框架运用了一种简化的多分辨率地面特征平面表示来捕捉场景,并通过另一个 NeRF 分支的位置编码输入进行补充,以联合学习的方式进行渲染。
Mar, 2023
本文提出一种大规模神经渲染方法来合成自主驾驶场景 (READ),通过各种采样方案,可以在 PC 上合成大规模驾驶场景。我们提出一个 ω 渲染网络来表示驾驶场景,该网络从稀疏点云中学习神经描述符。实验表明,我们的模型在大规模驾驶场景中表现良好,并可以缝合和编辑驾驶场景。
May, 2022
本研究论文采用 Neural Radiance Fields 方法,从城市景观图像中导出点云,并通过相机姿态的精确性、自动驾驶汽车采集的街景数据特点、以及新的算法(WIGO 和 LPiM 等)来解决相关挑战。
Apr, 2024
我们提出了一种适用于动态城市环境的新颖分解辐射场方法,通过多级神经场景图表示来估计大规模动态区域的辐射场,并采用快速复合光线采样和渲染技术进行有效的训练和渲染,通过新的视图合成基准测试,我们证明了该方法在更多方面的性能优于先前的方法。
Mar, 2024
本文提出 EfficientNeRF,一种高效的基于 NeRF 的方法,用于表示 3D 场景和合成新视图图像。通过在粗略和精细阶段分别提出有效的和关键的采样方法,以显著提高采样效率。同时,设计一种新的数据结构来加速整个场景的缓存以加速渲染速度。结果表明,本方法可以缩短 88% 以上的训练时间,实现超过 200 FPS 的渲染速度,而仍保持竞争力的准确性,从而促进 NeRF 在现实世界中的实际应用和推广。
Jun, 2022