无标记移动增强现实的视觉惯性测距约束下的稳健定位
通过将绝对位置回归器与本地视觉惯导测量结合,MobileARLoc 框架在设备上实现了大规模的无标记移动增强现实,并且在减小定位误差和降低惯导漂移方面取得了显著结果。
Jan, 2024
KS-APR 是一种用于 Markerless Mobile Augmented Reality 的 pipeline,通过结合 APR 的推断结果和训练集中的先验图像来评估估计位姿的可靠性,从而提高可靠性和准确性,适用于不需要一次性决策的视觉定位任务。
Aug, 2023
本研究设计了一种名为 RD-VIO 的新型视觉惯性测距系统,能够处理动态场景和纯旋转问题,并通过 IMU-PARSAC 算法和延迟三角测量技术来提高在这些问题上的性能。实验证明,在动态环境中,所提出的 RD-VIO 相较于其他方法具有明显优势。
Oct, 2023
通过使用摄像头和惯性测量单元(IMU)传感器,Visual Inertial Odometry(VIO)算法可以准确估计相机轨迹。我们引入了 Amirkabir 校园数据集(AUT-VI)来解决动态环境下的问题,改善导航系统。AUT-VI 是一个新颖而超级具有挑战性的数据集,包含 17 个不同位置的 126 个多样的序列,涵盖了所有极端导航场景。我们还发布了安卓应用程序用于数据捕获,以支持研究人员定制自己的 VIO 数据集变体,并在我们的数据集上评估了最先进的 Visual Inertial Odometry(VIO)和 Visual Odometry(VO)方法,强调了这个具有挑战性数据集的重要性。
Jan, 2024
通过使用全局快门相机和 ASIC 构成的紧凑光流传感器来替换 VINS-Mono 流水线的特征跟踪逻辑,实现了 VIO 传感器系统的加速,降低了延迟和计算负载,从而使 VINS-Mono 操作性能提高到 50 FPS,将在资源受限设备上实现低延迟的 VIO 成为可能。
Jun, 2024
本文提出了一种新颖的机器人中心视觉惯性导航系统的公式,在滑动窗口滤波框架内进行设计,使用单眼相机和 6 轴 IMU 实现高精度的运动跟踪,将 VINS 相对于运动的局部坐标系进行重构,以获得更高精度的相对运动估计,并提出 R-VIO 算法。该算法在 Monte Carlo 的模拟实验和真实环境实验中进行了广泛测试,并显示出在一些方面打破了当前技术的局限性。
May, 2018
提出了一种使用深度学习技术的长期机器人导航方法 ViPR,通过结合绝对位姿估计和相对位姿估计,利用时序信息和模块化的设计,并在已知数据集和工业数据集上取得了较好的效果。
Dec, 2019
引入了一种新颖的神经体姿态特征 ——PoseMap,旨在通过囊括图像之间和相关摄像机姿态之间的信息增强摄像机定位能力。该框架利用了绝对姿态回归(APR)架构和增强的 NeRF 模块,不仅有助于生成丰富的训练数据集来丰富训练,在线自监督对齐的扩展还能允许该方法在无标签图像上使用和微调。实验证明,我们的方法在室内和室外基准场景上平均性能分别提高了 14.28% 和 20.51%,超过了现有的具有最先进精度的 APR 方法。
Mar, 2024
本研究介绍了一种无监督深度神经网络方法,用于融合 RGB-D 图像和惯性测量进行绝对轨迹估计。我们的网络在没有 IMU 固有参数或 IMU 与相机之间的外部校准的情况下进行学习,学习整合 IMU 测量并生成假设轨迹,然后根据空间像素坐标的缩放图像投影误差的雅可比矩阵进行在线更正。在 KITTI Odometry 数据集上与最先进的视觉惯性测距,视觉测距和视觉同时定位和地图构建(VSLAM)方法进行了比较,表现出有竞争力的测距性能。
Mar, 2018