基于三元类型的透明度和混合测距的仅 RGB NeRF-SLAM
在这项工作中,我们修改了密度场,以鼓励它们向表面聚集,同时保持它们重建薄结构的能力。我们采用了离散不透明度网格表示,通过像素投射多条光线来抗锯齿,最小化不透明度值的二元熵,并开发了基于融合的网格化策略,最后进行网格简化和外观模型拟合。与现有的基于网格的方法相比,我们的模型产生的紧凑网格可以在移动设备上实时渲染,并实现了更高的视角合成质量。
Feb, 2024
提出了一种基于灵活的神经网络点云场景表示的高效 RGB-only 稠密 SLAM 系统,通过适应关键帧姿态和深度更新,优化了位姿和深度,并在回环检测、全局束调整等方面取得了较好或有竞争力的跟踪、建图和渲染准确性。
Mar, 2024
研究了一种使用神经隐函数的 RGB-D SLAM 的新方法,在没有深度输入的情况下,引入了分层特征体积以促进隐式地图译码器来实现地图重建,并通过匹配渲染和输入视频帧解决摄像机运动和神经隐式地图问题,进一步提出了一种光度变形损失以更好地约束摄像机姿态和场景几何。实验结果表明,该方法比以前的方法取得了更好的结果,甚至超过了一些最新的 RGB-D SLAM 方法。
Jan, 2023
该论文提出了一种基于多个半透明图层和场景适应几何的视图合成方法,可以从立体对中推断几何,颜色和透明度值,通过可微分的渲染器进行训练,并展示了其在渲染速度和渲染效果等方面优于传统方法和基于隐式几何表示的 IBRNet 系统。
Jan, 2022
我们提出了一种新颖的神经辐射场(NeRF)表示,用于非不透明场景,通过利用带纹理的多边形实现快速推理。我们的方法通过对场景进行多边形建模,从纹理中获取不透明度和颜色,并使用透像渲染所需的象限点来模拟体积效应,从而克服了现有方法在体积渲染和建模体积效应方面的局限性。最终色彩图像通过光栅化多边形和片段着色器得到,我们的方法能够在各种设备上进行渲染,并与现有图形框架轻松集成,同时保持体积渲染的优势。
Dec, 2023
使用混合的神经辐射场(HybridNeRF)方法,将大多数对象作为表面渲染,同时以体积化的方式对挑战性区域进行建模,以提高视图合成的质量和实时性。
Dec, 2023
我们引入了一种新颖的单目视觉里程计(VO)系统 NeRF-VO,它整合了基于学习的稀疏视觉里程计用于低延迟相机跟踪和神经辐射场景表示用于复杂的密集重建和新视角合成。我们的系统使用稀疏视觉里程计初始化相机位姿,并从单目深度预测网络获取视角相关的密集几何先验。我们将位姿和密集几何的尺度统一起来,将它们视为监督信号来训练神经隐式场景表示。NeRF-VO 通过联合优化关键帧位姿和底层密集几何,在边缘项渲染的过程中训练辐射场,展现了出色的场景表示的光度和几何保真度,在各种合成和真实世界的数据集上超过了最先进的方法,在姿态估计准确性、新视角合成保真度和密集重建质量方面都取得了更好的性能,并且在相机跟踪频率更高和 GPU 内存消耗更少的情况下。
Dec, 2023
利用神经辐射场(Neural Radiance Fields)的连续体密度和 RGB 值的神经网络,以及基于射线追踪的方式生成真实照片,我们提出了一种利用机载 RGB 摄像头的算法,使机器人在 NeRF 表示的 3D 场景中导航,并通过一种优化算法避免与高密度区域的碰撞,并在线重新规划路径。
Oct, 2021
提出了一种新的基于几何和光学的三维地图制图方法,利用稠密单目 SLAM 和实时分层体积神经辐射场技术,通过提供估计准确的位姿和深度图的相关不确定性,实时适应神经辐射场的场景。通过采用提出的基于不确定性的深度损失,实现了良好光学和几何精度,在实时和单目成像的情况下比竞争方法更精确 (最高提高 179% 的 PSNR 和 86% 的 L1 深度)。
Oct, 2022
InfiniTAM 是一个新的统一框架,它可以快速灵活地进行 3D 重建,基于 KinectFusion 方法和单目 SLAM 方法,使用截断有符号距离函数来表示体积模型,提供了一系列组件来实现可扩展的 3D 重建。
Oct, 2014