DroNeRF:多智能体实时无人机姿态优化计算神经辐射场
我们提出了 Drone-NeRF 框架,通过使用神经辐射场(NeRF)来增强适用于无人机倾斜摄影的无界大规模场景的高效重建,将场景根据摄像机位置和深度可见性划分为均匀的子块,在 NeRF 的并行训练中训练子场景,然后合并为完整场景,通过优化相机姿态和引导 NeRF 使用均匀采样器来完善模型,集成选择的样本提高准确性,哈希编码融合 MLP 加速密度表示,生成 RGB 和深度输出,该框架解决了与场景复杂性、渲染效率和无人机获取图像准确性相关的挑战,展示了有前景的能力。
Aug, 2023
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
利用 Neural Radiance Fields (NeRFs) 训练高分辨率 3D 重建,包括使用 HoloLens 数据提取内部摄像机姿态和通过结构光运动提取外部摄像机姿态,两者均通过姿态优化得到改善;结果表明,相较于传统的 Multi-View Stereo 密集重构方法,在完整性和细节层面上,NeRF 重建表现更好。
Apr, 2023
本文提出了一种基于动态神经辐射场的算法,通过表面的位置和朝向在观测空间中进行条件化,像素的渲染基于不同姿态下的表面反射的颜色来实现遮挡的效果,有效地改善了单目 RGB 视频中移动高光物体的重建质量。
Mar, 2023
本研究评估了 Neural Radiance Fields 在工业机器人应用中的潜力,并提出了一种替代 Structure from Motion 预处理的方法,通过基于机器人运动学的度量尺度确定了精确的相机姿态,表明在具有挑战性的场景中具有明显优势,并展示了在缺乏真实数据的情况下,应用集成方法估计合成新视图的质量的初步结果。
May, 2024
该论文介绍了一种新的基于神经网络点云的辐射场模型 ——Point-NeRF,它结合了 NeRF 和深度多视图立体成像两种方法的优点,可用于高质量的视图合成和快速的场景几何重建。Point-NeRF 可以通过射线行走的渲染管道有效地渲染神经点特征,相对于 NeRF 具有快速训练和处理 3D 重建错误和异常数据的优势。
Jan, 2022
利用神经辐射场(Neural Radiance Fields)的连续体密度和 RGB 值的神经网络,以及基于射线追踪的方式生成真实照片,我们提出了一种利用机载 RGB 摄像头的算法,使机器人在 NeRF 表示的 3D 场景中导航,并通过一种优化算法避免与高密度区域的碰撞,并在线重新规划路径。
Oct, 2021
优化 NeRF 模型时,良好的数据样本和有效的相机位置选择对于最终重建的可视化质量至关重要。本研究提出了一种算法,能够以最少的假设来提供改善可视化质量的新相机位置,并在各方面优于基线和类似方法。
Aug, 2023
提出了 GNeRF 框架,将生成对抗网络(GAN)与神经辐射场(NeRF)重建结合起来,应用于复杂场景的视角合成。该框架通过两个阶段的端到端优化,解决了较少研究的未知相机姿态外部场景问题,并在多种场景中取得了优异的效果。
Mar, 2021
SfMNeRF 提出了一种基于神经辐射场的方法,结合自监督深度估计方法对样本进行重构,同时利用极线和光度一致性等约束构建 3D 场景几何图像,提高了神经辐射场的表现,实现了更好地合成新视角。
Apr, 2023