本研究提出了一种结合点和边的视觉里程计算法,利用概率框架同时最小化光度误差和匹配边缘的几何误差来恢复相机位姿,并在纹理稀疏的环境中表现出比现有单目里程表算法更好的性能。在多个公开数据集上,本算法实现了与最先进的单目里程表方法相媲美的性能。
Mar, 2017
本文介绍了一种使用循环模型进行短视频聚合并实现相机定位的方法。通过考虑短视频的时间平滑性,不仅可以使位姿估计更加平滑,还可以显著降低相机定位误差,并提出了一种从该模型中获得概率位姿估计的方法。我们在实际的自动驾驶和室内定位数据集上进行了评估。
Feb, 2017
本论文提出了一种基于深度相机和惯性传感器的微型机器人系统的新型密集 SLAM 的框架,使用非迭代的 Fourier 变换来减少计算需求,通过解耦 6 自由度数据和进行独立空间点云匹配,实现分类键帧训练以及数据关联,相较现有方法,其速度更快,分辨率更高,但精度相当。
Jan, 2017
本文提出了一种单目视觉里程计算法,它结合了基于几何方法和深度学习的思想,并利用两个卷积神经网络进行深度估计和光流估计。在 KITTI 数据集上的实验表明,该算法具有较强的鲁棒性和良好的性能。
Sep, 2019
本文提出了一种用于估计一致密集深度图和相机姿态的算法,该算法基于学习的深度先验和几何优化相结合,不需要输入相机姿态,并能够在包括噪声、抖动、运动模糊和卷帘快门失真等多种挑战性条件下实现稳健的重建。
Dec, 2020
本文提出了一种适用于水下环境的单目视觉里程计方法,该方法基于光流跟踪和基于关键帧的非线性优化,并在模拟和实际水下数据集上验证其性能优于现有的视觉 SLAM 方法,主要应用于水下考古任务中 ROV 的定位。
Jun, 2018
本文提出了一种细粒度的室外机器人自定位方法,利用可调数量的机载摄像头和易获取的卫星图像;该方法解决了现有的跨视角定位方法因移动物体和季节变化等噪声源的问题;通过从地面和卫星视图中检测一致的关键点和它们对应的深度特征,去除离地物体,并在两个视图之间建立同伦变换,该方式是第一个仅利用视觉的稀疏方法,以提高动态环境下的感知能力;此外,该方法采用空间嵌入方法,利用相机内外参数信息降低纯视觉匹配的歧义性,从而提高特征匹配和姿态估计的准确性。通过在 KITTI 和 Ford Multi-AV Seasonal 数据集上进行大量实验,证明了该方法优于现有的最先进方法,能够实现横向和纵向方向上低于 0.5 米的中位空间准确性误差,以及小于 2 度的中位方向准确性误差。
Aug, 2023
本研究提出了一种新的基于卷积神经网络的多任务全局姿态矫正和里程计评估方法 VLocNet,该模型结构紧凑、可实现实时推断,并采用了一种新颖的辅助损失函数来利用相关位姿信息进行训练,在室内和户外数据集上的实验结果表明,该模型具有可与 SIFT 算法媲美、甚至优于其表现的定位精度。
Mar, 2018
使用深度神经网络进行图像生成任务以提取高级特征,进而估计视觉里程碑的深度和位姿,同时利用光流和循环神经网络以及生成对抗网络改进深度和位姿的估计精度。
Sep, 2023
通过 2D-2D 特征匹配技术,利用旋转平均算法设计一种可快速而又准确地估算单目相机旋转方向的系统,该系统通过维护一个视图图形并解决旋转问题来估算摄像机轨迹和地图,并驱动 V-SLAM 系统跟踪纯旋转运动。
Oct, 2020