DVI-SLAM: 双视觉惯性 SLAM 网络
本文介绍了一种新的紧密耦合的视觉惯性同时定位和建图系统,采用惯性测量单元进行初始测量,实现了零漂移定位,带有地图重用功能,并应用于单目相机的最一般问题。在微型飞行器公共数据集的 11 个序列中测试了该系统,证明了其比目前最先进的视觉惯性测量方法更为准确。
Oct, 2016
该研究论文利用学习到的紧凑深度图表示和重构三种不同类型的误差,将光度误差,重投影误差和几何误差应用于标准因子图软件中,将不同的方法统一到概率框架中,实现实时性能的同时对现实世界序列的轨迹估计和深度重建进行评估,并呈现了估计的丰富几何示例。
Jan, 2020
本文提出了一种单目视觉惯性 SLAM 系统,可以通过重新定位相机和获取先前构建的地图中的绝对姿态来校正漂移,并进行全局一致性的 4 自由度姿态图优化,进而实现地图合并。
Mar, 2018
本研究介绍了一种无监督深度神经网络方法,用于融合 RGB-D 图像和惯性测量进行绝对轨迹估计。我们的网络在没有 IMU 固有参数或 IMU 与相机之间的外部校准的情况下进行学习,学习整合 IMU 测量并生成假设轨迹,然后根据空间像素坐标的缩放图像投影误差的雅可比矩阵进行在线更正。在 KITTI Odometry 数据集上与最先进的视觉惯性测距,视觉测距和视觉同时定位和地图构建(VSLAM)方法进行了比较,表现出有竞争力的测距性能。
Mar, 2018
本研究提出了一种通过非线性因子恢复和捆绑调整的方法从视觉惯性测距(VIO)中提取有用信息,以实现全局一致的建图和提高准确性。在公共基准测试中,我们证明了该方法优于现有技术。
Apr, 2019
本文提出了新的 TUM VI 基准数据集,为不同场景下的视觉惯性 (VI) 里程计进行评估提供具有多样性的序列,其中提供了相机图像和 IMU 测量值,并使用运动捕捉系统提供了准确的姿态真值。
Apr, 2018
提出一种新型的 VSLAM 系统 LIFT-SLAM,将基于深度学习的特征描述符与传统基于几何的 VSLAM 相结合,实现在保证鲁棒性的前提下,提高传统 VSLAM 系统的性能,并通过实验证明所提出的方法可实现和当前最先进的技术水平相媲美的性能,并且其对传感器噪声具有鲁棒性。同时,通过避免特定数据集的参数调整,增强了所提出 VSLAM 管线的性能。
Mar, 2021
本文提出了基于关键帧的视觉惯性同步定位与地图构建(SLAM)方法,通过在线环路闭合和非线性优化方法,使得我们的系统在单目和立体相机上具有实时、准确和鲁棒的位姿估计能力,支持先前建立地图的重定位和持续的 SLAM 操作,并在室内和户外公开数据集上展示了我们方法高精度、高效的性能。
Feb, 2017
本文研究了利用 VI-SLAM 系统从稀疏深度点云与室内场景图片中学习场景深度完成的问题,特别地,本文使用预训练的表面法向网络结合利用可用的重力估计来修正输入图像的视角限制,从而提高了表面法向估计和深度完成精度。最后,本文在 ScanNet、NYUv2 和 Azure Kinect 数据集上展示了我们的方法超越了其他最先进的方法。
Jul, 2020
本研究针对移动机器人在动态和复杂环境下自主导航和任务执行的困难,提出了一种基于 LiDAR 和单目视觉 SLAM 的紧耦合几何特征融合框架方法,是当前多模态方法中姿态估计更为精确和健壮的。
Jul, 2023