准确且交互式的视觉惯导传感器校准:次佳视角和次佳轨迹建议
本文提出了新的 TUM VI 基准数据集,为不同场景下的视觉惯性 (VI) 里程计进行评估提供具有多样性的序列,其中提供了相机图像和 IMU 测量值,并使用运动捕捉系统提供了准确的姿态真值。
Apr, 2018
本研究介绍了一种无监督深度神经网络方法,用于融合 RGB-D 图像和惯性测量进行绝对轨迹估计。我们的网络在没有 IMU 固有参数或 IMU 与相机之间的外部校准的情况下进行学习,学习整合 IMU 测量并生成假设轨迹,然后根据空间像素坐标的缩放图像投影误差的雅可比矩阵进行在线更正。在 KITTI Odometry 数据集上与最先进的视觉惯性测距,视觉测距和视觉同时定位和地图构建(VSLAM)方法进行了比较,表现出有竞争力的测距性能。
Mar, 2018
本研究提出了一个基于流形的序列到序列学习方法,用于使用视觉和惯性传感器进行运动估计。该方法具有许多优点,特别是它无需手动同步相机和 IMU,也无需手动校准 IMU 和相机。当具有准确的校准数据时,我们的方法与传统方法有竞争力,并且在校准和同步误差存在的情况下可以训练超越它们。
Jan, 2017
本研究提出了一种通过非线性因子恢复和捆绑调整的方法从视觉惯性测距(VIO)中提取有用信息,以实现全局一致的建图和提高准确性。在公共基准测试中,我们证明了该方法优于现有技术。
Apr, 2019
本文提出了一种新颖的机器人中心视觉惯性导航系统的公式,在滑动窗口滤波框架内进行设计,使用单眼相机和 6 轴 IMU 实现高精度的运动跟踪,将 VINS 相对于运动的局部坐标系进行重构,以获得更高精度的相对运动估计,并提出 R-VIO 算法。该算法在 Monte Carlo 的模拟实验和真实环境实验中进行了广泛测试,并显示出在一些方面打破了当前技术的局限性。
May, 2018
通过使用摄像头和惯性测量单元(IMU)传感器,Visual Inertial Odometry(VIO)算法可以准确估计相机轨迹。我们引入了 Amirkabir 校园数据集(AUT-VI)来解决动态环境下的问题,改善导航系统。AUT-VI 是一个新颖而超级具有挑战性的数据集,包含 17 个不同位置的 126 个多样的序列,涵盖了所有极端导航场景。我们还发布了安卓应用程序用于数据捕获,以支持研究人员定制自己的 VIO 数据集变体,并在我们的数据集上评估了最先进的 Visual Inertial Odometry(VIO)和 Visual Odometry(VO)方法,强调了这个具有挑战性数据集的重要性。
Jan, 2024
我们提出了一个鲁棒的外参标定方法,用于自动地进行地理参考相机标定,不需要人与信息交互,同时也不限制其他道路用户通行,我们通过在合成数据集和实际交叉口以及实现对真实基础设施的标定,演示了方法的可行性和准确性。
Apr, 2023
我们提出了一种在一级运动学水平上进行紧密视觉惯性融合的新颖解决方案,通过使用动态视觉传感器而不是普通相机,通过利用三焦几何来建立与事件和相机速度直接相关的关联关系,并展示了如何在高度动态的情况下在短时间间隔内获得速度估计。噪声和异常值使用嵌套的两层 RANSAC 方法处理,通过与预积分惯性信号进行紧密融合并使用滑动窗口优化器获得平滑速度信号。对模拟和真实数据的实验证明,所提出的紧密事件惯性融合可以在高度动态的情景中连续且可靠地估计速度,与绝对坐标无关。此外,在极端情况下,它比传统的基于点位置的视觉惯性测距法实现了更稳定和更准确的运动学估计。
Jan, 2024