局部支持全局:带序列增强的深度相机重定位
从单个图像中估计相对于全局框架的六自由度相机姿态的问题,我们提出了一种利用相对空间和时间几何约束的新颖网络来引导定位的深度网络的训练方法。利用相邻相机帧和场景中时空距离较远的相机帧获得的空间和时间相对姿态约束,我们的方法能够学习到在只有少量或非常稀疏的地面真实 3D 坐标可用的情况下进行定位。我们在三个常见的视觉定位数据集上评估了我们的方法,并证明其优于其他直接姿态估计方法。
Dec, 2023
通过利用少量的标签数据(即相机姿态),本文提出了一种学习方法,将这些标签与刚性对齐相结合,学习场景的三维几何表示,并将其用于估计相机的六自由度姿态,从而提高了定位的准确性。
Dec, 2023
本研究提出了一种基于姿态回归网络和图神经网络相结合的视觉重新定位方法,可在没有内参信息的情况下达到与绝对姿态回归网络相当的准确性,同时保持相对姿态回归模型的高测试速度和对非训练场景的适用性。
Apr, 2021
本研究提出了一种新的基于卷积神经网络的多任务全局姿态矫正和里程计评估方法 VLocNet,该模型结构紧凑、可实现实时推断,并采用了一种新颖的辅助损失函数来利用相关位姿信息进行训练,在室内和户外数据集上的实验结果表明,该模型具有可与 SIFT 算法媲美、甚至优于其表现的定位精度。
Mar, 2018
本文提出了一种基于深度端到端网络的长期六自由度视觉里程法,通过融合相对网络和全局网络来改进单目定位的准确性,并使用交叉变换约束和均方误差来优化参数,实验结果表明本方法在位姿准确性方面优于其他最先进的基于学习的视觉里程计方法。
Dec, 2018
使用深度神经网络进行图像生成任务以提取高级特征,进而估计视觉里程碑的深度和位姿,同时利用光流和循环神经网络以及生成对抗网络改进深度和位姿的估计精度。
Sep, 2023
本文提出了一种细粒度的室外机器人自定位方法,利用可调数量的机载摄像头和易获取的卫星图像;该方法解决了现有的跨视角定位方法因移动物体和季节变化等噪声源的问题;通过从地面和卫星视图中检测一致的关键点和它们对应的深度特征,去除离地物体,并在两个视图之间建立同伦变换,该方式是第一个仅利用视觉的稀疏方法,以提高动态环境下的感知能力;此外,该方法采用空间嵌入方法,利用相机内外参数信息降低纯视觉匹配的歧义性,从而提高特征匹配和姿态估计的准确性。通过在 KITTI 和 Ford Multi-AV Seasonal 数据集上进行大量实验,证明了该方法优于现有的最先进方法,能够实现横向和纵向方向上低于 0.5 米的中位空间准确性误差,以及小于 2 度的中位方向准确性误差。
Aug, 2023
本文介绍了一种使用循环模型进行短视频聚合并实现相机定位的方法。通过考虑短视频的时间平滑性,不仅可以使位姿估计更加平滑,还可以显著降低相机定位误差,并提出了一种从该模型中获得概率位姿估计的方法。我们在实际的自动驾驶和室内定位数据集上进行了评估。
Feb, 2017
本研究提出使用手机的 GPS、罗盘和重力传感器等附加传感器来解决室外场景下相机定位的挑战性问题,通过开发出直接的二维 - 三维匹配网络和采集公开数据集等手段,证明了该方法的有效性。
Apr, 2023