飞行机器人的视觉惯性测距
本研究设计了一种名为 RD-VIO 的新型视觉惯性测距系统,能够处理动态场景和纯旋转问题,并通过 IMU-PARSAC 算法和延迟三角测量技术来提高在这些问题上的性能。实验证明,在动态环境中,所提出的 RD-VIO 相较于其他方法具有明显优势。
Oct, 2023
本文提出了一种新颖的机器人中心视觉惯性导航系统的公式,在滑动窗口滤波框架内进行设计,使用单眼相机和 6 轴 IMU 实现高精度的运动跟踪,将 VINS 相对于运动的局部坐标系进行重构,以获得更高精度的相对运动估计,并提出 R-VIO 算法。该算法在 Monte Carlo 的模拟实验和真实环境实验中进行了广泛测试,并显示出在一些方面打破了当前技术的局限性。
May, 2018
通过使用全局快门相机和 ASIC 构成的紧凑光流传感器来替换 VINS-Mono 流水线的特征跟踪逻辑,实现了 VIO 传感器系统的加速,降低了延迟和计算负载,从而使 VINS-Mono 操作性能提高到 50 FPS,将在资源受限设备上实现低延迟的 VIO 成为可能。
Jun, 2024
本研究提出了一种通过非线性因子恢复和捆绑调整的方法从视觉惯性测距(VIO)中提取有用信息,以实现全局一致的建图和提高准确性。在公共基准测试中,我们证明了该方法优于现有技术。
Apr, 2019
本文提出了新的 TUM VI 基准数据集,为不同场景下的视觉惯性 (VI) 里程计进行评估提供具有多样性的序列,其中提供了相机图像和 IMU 测量值,并使用运动捕捉系统提供了准确的姿态真值。
Apr, 2018
通过使用摄像头和惯性测量单元(IMU)传感器,Visual Inertial Odometry(VIO)算法可以准确估计相机轨迹。我们引入了 Amirkabir 校园数据集(AUT-VI)来解决动态环境下的问题,改善导航系统。AUT-VI 是一个新颖而超级具有挑战性的数据集,包含 17 个不同位置的 126 个多样的序列,涵盖了所有极端导航场景。我们还发布了安卓应用程序用于数据捕获,以支持研究人员定制自己的 VIO 数据集变体,并在我们的数据集上评估了最先进的 Visual Inertial Odometry(VIO)和 Visual Odometry(VO)方法,强调了这个具有挑战性数据集的重要性。
Jan, 2024
本研究介绍了一种无监督深度神经网络方法,用于融合 RGB-D 图像和惯性测量进行绝对轨迹估计。我们的网络在没有 IMU 固有参数或 IMU 与相机之间的外部校准的情况下进行学习,学习整合 IMU 测量并生成假设轨迹,然后根据空间像素坐标的缩放图像投影误差的雅可比矩阵进行在线更正。在 KITTI Odometry 数据集上与最先进的视觉惯性测距,视觉测距和视觉同时定位和地图构建(VSLAM)方法进行了比较,表现出有竞争力的测距性能。
Mar, 2018
本文介绍了一种基于深度学习的自适应视觉惯性测距(VIO)方法,采用先进的策略网络,根据运动状态和惯性测量读数,在可能的情况下对视觉模态进行去激活,以减少计算的冗余并实现自适应复杂性缩减。实验结果表明,该技术可在评估 KITTI 数据集时实现高达 78.8% 的计算复杂度降低,其性能与完整模态基线方法相当甚至更好。
May, 2022
通过结合绝对位置估计 (APR) 和本地 VIO 跟踪系统,引入了一个新的移动 AR 框架 VIO-APR,该框架使用 VIO 来评估 APR 的可靠性并通过 APR 来识别和补偿 VIO 的漂移,从而实现更准确的定位和更稳定的 AR 体验。
Aug, 2023
本研究提出一种新颖的端到端选择性传感器融合框架,用于单目视觉内导(VIO)中的图像和惯性测量融合,以估计轨迹并提高对实际问题的鲁棒性,在三个公共数据集上进行了全面测试,并展示了融合策略的效果,尤其是在存在错误数据情况下。
Mar, 2019