面向资源受限无人机的低延迟视觉惯性里程计,利用传感器加速的光流
本研究提出一种新颖的端到端选择性传感器融合框架,用于单目视觉内导(VIO)中的图像和惯性测量融合,以估计轨迹并提高对实际问题的鲁棒性,在三个公共数据集上进行了全面测试,并展示了融合策略的效果,尤其是在存在错误数据情况下。
Mar, 2019
本研究提出了一种通过非线性因子恢复和捆绑调整的方法从视觉惯性测距(VIO)中提取有用信息,以实现全局一致的建图和提高准确性。在公共基准测试中,我们证明了该方法优于现有技术。
Apr, 2019
本研究设计了一种名为 RD-VIO 的新型视觉惯性测距系统,能够处理动态场景和纯旋转问题,并通过 IMU-PARSAC 算法和延迟三角测量技术来提高在这些问题上的性能。实验证明,在动态环境中,所提出的 RD-VIO 相较于其他方法具有明显优势。
Oct, 2023
本研究介绍了一种无监督深度神经网络方法,用于融合 RGB-D 图像和惯性测量进行绝对轨迹估计。我们的网络在没有 IMU 固有参数或 IMU 与相机之间的外部校准的情况下进行学习,学习整合 IMU 测量并生成假设轨迹,然后根据空间像素坐标的缩放图像投影误差的雅可比矩阵进行在线更正。在 KITTI Odometry 数据集上与最先进的视觉惯性测距,视觉测距和视觉同时定位和地图构建(VSLAM)方法进行了比较,表现出有竞争力的测距性能。
Mar, 2018
本文在 NVIDIA Jetson 平台上针对机载摄像头的不同算法,进行了包括单目和双目覆盖视觉里程计(VO)和视觉惯性里程计(VIO)等方面的基准测试,并发布了 KAIST VIO 数据集进行计算机视觉和机器人应用。
Mar, 2021
本文提出了一种新颖的机器人中心视觉惯性导航系统的公式,在滑动窗口滤波框架内进行设计,使用单眼相机和 6 轴 IMU 实现高精度的运动跟踪,将 VINS 相对于运动的局部坐标系进行重构,以获得更高精度的相对运动估计,并提出 R-VIO 算法。该算法在 Monte Carlo 的模拟实验和真实环境实验中进行了广泛测试,并显示出在一些方面打破了当前技术的局限性。
May, 2018
该文章介绍了一种名为 DeepVIO 的自监督深度学习网络,通过直接合并 2D 光流特征(OFF)和惯性测量单元(IMU)数据,提供绝对轨迹估计,实验结果表明其在准确性和数据可适应性方面优于传统的基于 Deep-Learning 方法。
Jun, 2019
通过结合绝对位置估计 (APR) 和本地 VIO 跟踪系统,引入了一个新的移动 AR 框架 VIO-APR,该框架使用 VIO 来评估 APR 的可靠性并通过 APR 来识别和补偿 VIO 的漂移,从而实现更准确的定位和更稳定的 AR 体验。
Aug, 2023
本文介绍了一种基于深度学习的自适应视觉惯性测距(VIO)方法,采用先进的策略网络,根据运动状态和惯性测量读数,在可能的情况下对视觉模态进行去激活,以减少计算的冗余并实现自适应复杂性缩减。实验结果表明,该技术可在评估 KITTI 数据集时实现高达 78.8% 的计算复杂度降低,其性能与完整模态基线方法相当甚至更好。
May, 2022