DROID-SLAM:基于深度学习的单目、双目、RGB-D 相机的视觉 SLAM
ORB-SLAM2 是一个用于单目、双目以及 RGB-D 相机的完整的 SLAM 系统,包括地图重用、回环闭合和重定位能力,利用纯视觉观测、双目视觉观测和 RGB-D 相机,在各种环境下都能实时工作。其基于捆绑调整的后端可以在实现度规尺度精确的同时实现高精度的轨迹估计。通过在 29 个流行的公共数据集上的评估,证明 ORB-SLAM2 的精度达到了最新的最佳结果,因此我们将其开源以便于 SLAM 社区以及其他领域的研究人员使用。
Oct, 2016
本文提出了 Volume-DROID,一种新的同时定位和建图(SLAM)方法,它集成了体积映射和可微分的循环优化设计(DROID);Volume-DROID 可以通过摄像机图像或视频帧等输入数据,将 DROID-SLAM、点云配准、一个通用的语义分割网络以及卷积贝叶斯内核推理(ConvBKI)相结合,生成一个三维语义地图,并为机器人提供精准的定位。
Jun, 2023
本文介绍了 Photo-SLAM,一种具有超级基元地图的创新 SLAM 框架,通过同时利用显式几何特征进行定位和学习隐式光度特征来表示观察环境的纹理信息,以及采用高斯金字塔训练方法逐步学习多级特征以增强逼真的映射性能。实验证明,与当前最先进的 SLAM 系统相比,我们提出的 Photo-SLAM 在线逼真映射的性能显著优于其他系统,如 Replica 数据集中的 PSNR 提高了 30%,渲染速度快了数百倍。此外,Photo-SLAM 可以在像 Jetson AGX Orin 这样的嵌入式平台上实时运行,展示了机器人应用的潜力。
Nov, 2023
MoD-SLAM 是一种基于神经网络的单目稠密建图方法,通过使用单目深度估计来优化场景重建,并利用闭环检测来更新相机姿态,实现实时在无边界场景中进行全局姿态优化和三维重建。与以往神经网络建图方法相比,我们的方法更加稳健、可扩展和多功能,在大型无边界场景中表现出更卓越的建图性能。
Feb, 2024
本文提出一种基于 SLAM 和 CNNs 的结合框架,将 CNN-predicted depth 用于伪 RGB-D feature-based SLAM,同时将几何 SLAM 的 3D 场景结构和相机姿势注入到深度网络中,以实现更好的姿态和 3D 结构估计。实验表明,该框架在 KITTI 和 TUM RGB-D 数据集上优于先前的方法。
Apr, 2020
为了提高 AR/VR 应用和视觉辅助和检测系统的性能和效果,本文提出了一种结合深度补全网络的 360ORB-SLAM 系统,用于全景图像中的视觉同时定位和建图。实验证明,该方法在尺度准确性方面优于现有的单目 SLAM 方法,并有效解决了特征关联和尺度模糊的挑战,深度补全网络的集成提高了系统稳定性,减轻了动态元素对 SLAM 性能的影响。
Jan, 2024
本文提出一种名为 DS-SLAM 的鲁棒的语义视觉 SLAM 方法,旨在解决动态环境下的 SLAM 问题,通过将语义分割网络与运动一致性检查方法相结合,提高了在动态环境下的本地化精度,同时生成了一个稠密的语义八叉树地图,可用于高级任务中。经过多组测试,DS-SLAM 的绝对轨迹精度比 ORB-SLAM2 提高了一个数量级,是当前高动态环境下最先进的 SLAM 系统之一。
Sep, 2018
本文提出了一种基于密集神经算法的同步定位与建图方法,使用深度学习生成的点云来锚定神经场景的特征,通过最小化基于 RGBD 的重新渲染损失,实现对跟踪和地图绘制的同时处理,通过在信息密度低的区域减少运行时间和内存使用,并将更高的点密度分配给解决更细节问题。在 Replica,TUM-RGBD 和 ScanNet 数据集上相对于现有的神经 RGBD SLAM 方法获得了更好或相似的跟踪,地图和渲染准确性。
Apr, 2023
GO-SLAM 是一种基于深度学习的稠密视觉 SLAM 框架,通过全局优化姿态和三维重建实时改进相机跟踪和重构方面的错误累积问题,并通过有效的闭环检测和在线全捆绑调整支持鲁棒的姿态估计和实时三维重建,同时在运行中实时更新隐式和连续的表面表示以确保全局一致性的三维重建,各种合成和真实世界数据集的结果表明,GO-SLAM 在跟踪鲁棒性和重建精度方面优于现有方法,并且具有多样性,可配合单目、立体和 RGB-D 输入工作。
Sep, 2023
本论文将最新的深度学习方法与基于视频流的半稠密 SLAM 相结合,在室内 / 室外数据集中得到了更好的 2D 语义标签识别,无需针对序列中的每一帧获得语义分割,其时间复杂度也得以合理控制。
Nov, 2016