实时隐式映射和定位(iMAP)
研究了一种使用神经隐函数的 RGB-D SLAM 的新方法,在没有深度输入的情况下,引入了分层特征体积以促进隐式地图译码器来实现地图重建,并通过匹配渲染和输入视频帧解决摄像机运动和神经隐式地图问题,进一步提出了一种光度变形损失以更好地约束摄像机姿态和场景几何。实验结果表明,该方法比以前的方法取得了更好的结果,甚至超过了一些最新的 RGB-D SLAM 方法。
Jan, 2023
提出了一种利用神经隐式场表示解决室内场景语义 V-SLAM 问题的在线框架,并通过多项实验表明其在测试时间具有精确的跟踪、地图绘制和语义标注能力,能够扩展到 RGB 图像输入,为机器人视觉感知及相关问题提供了可行的解决方案。
Apr, 2023
vMAP 采用神经场表示法实现目标级别的稠密 SLAM 系统。每个目标都由小型 MLP 表示,实现高效和完整的建模,无需 3D 先验知识。通过 RGB-D 相机,vMAP 可以在不需要先验信息的情况下实时检测对象实例并将其动态添加到地图中。该系统可以在单个场景中优化多达 50 个独立的目标,并实现高效的训练速度,更新频率达到 5 Hz。与先前的神经场 SLAM 系统相比,实验证明了显著改善的场景级别和目标级别重构质量。
Feb, 2023
本文介绍了 Photo-SLAM,一种具有超级基元地图的创新 SLAM 框架,通过同时利用显式几何特征进行定位和学习隐式光度特征来表示观察环境的纹理信息,以及采用高斯金字塔训练方法逐步学习多级特征以增强逼真的映射性能。实验证明,与当前最先进的 SLAM 系统相比,我们提出的 Photo-SLAM 在线逼真映射的性能显著优于其他系统,如 Replica 数据集中的 PSNR 提高了 30%,渲染速度快了数百倍。此外,Photo-SLAM 可以在像 Jetson AGX Orin 这样的嵌入式平台上实时运行,展示了机器人应用的潜力。
Nov, 2023
提出了一种基于 2D 和 3D SLAM 网络结合的实时语义地图方法,通过重新投影及渲染后进行特征融合,以及一种利用表面法线的几何分割方法来整合 3D 语义元素,并使用新型的神经网络进行轻量级的语义地图后处理,实现了在不同深度感应器方面的性能表现和交叉传感器通用性方面的优化。
Jun, 2023
本文介绍了一种利用 RGB-D 图像序列进行协作式隐式神经同步定位与地图生成(SLAM)系统,该系统包括完整的前端和后端模块,包括里程计、回环检测、子图融合和全局优化。为了在一个统一的框架中实现所有这些模块,我们提出了一种新颖的基于神经元的三维场景表示方法,其中每个点维护一个可学习的神经元特征用于场景编码,并与某个关键帧相关联。此外,我们提出了一种分布式至集中式学习策略,用于改进协作式隐式 SLAM 的一致性和合作性。还提出了一种新颖的全局优化框架,以提高系统精度,类似于传统的束调整。在各种数据集上的实验证明了该方法在相机跟踪和地图生成方面的优越性。
Nov, 2023
基于神经场的实时单目建图框架与密集 SLAM 相结合,利用多分辨率网格编码和有符号距离函数表征进行神经场的高效构建,并通过环路闭合和深度先验进行全局一致性和精度增强,从而优于现有方法,在保持实时性能的同时提高了准确度和地图完整性。
Oct, 2023
提出了一种名为 NID-SLAM 的方法,通过增强语义掩膜中的不准确区域和选择关键帧来提高神经 SLAM 在动态环境中的性能。在动态环境中,该方法通过准确删除动态物体来降低相机漂移的概率,从而在跟踪准确性和建图质量方面优于其他竞争性神经 SLAM 方法。
Jan, 2024
本文介绍了一种基于神经网络的连续场景表征学习方法,通过经验回放解决连续场景表征学习中遗忘和准确性的平衡问题。实验证明本方法能够连续地学习和表示场景几何特征。
Aug, 2021
本文提出了一种移动视觉系统的实时语义地图构建方法,采用 2D 到 3D 对象检测流程和快速数据关联,将关联检测作为语义约束引入 SLAM 系统进行姿态校正,通过本文提出的观测对象局部关联处理和基于不确定性贪心关联的方案,平均迭代时间达到了 65ms,实验结果表明在公共数据集上能够使现有的 SLAM 系统姿态估计提高 68%。
Mar, 2022