从姿态中隐式学习场景几何用于全局定位
从单个图像中估计相对于全局框架的六自由度相机姿态的问题,我们提出了一种利用相对空间和时间几何约束的新颖网络来引导定位的深度网络的训练方法。利用相邻相机帧和场景中时空距离较远的相机帧获得的空间和时间相对姿态约束,我们的方法能够学习到在只有少量或非常稀疏的地面真实 3D 坐标可用的情况下进行定位。我们在三个常见的视觉定位数据集上评估了我们的方法,并证明其优于其他直接姿态估计方法。
Dec, 2023
本研究提出了一种新颖的联合语义本地化和场景理解方法,通过训练卷积神经网络,通过物体实例的自我表征和 6-DoF 相机姿态预测来实现 3D 场景坐标估计,并且相比直接姿态回归或基于场景坐标的姿态估计算法更加准确。
Sep, 2019
本研究利用深度神经网络进行对物体在已知场景下的姿态估计,其中提出了使用场景无关的神经网络模型 PixLoc,通过特征学习和度量学习方法将相机定位问题转换为多尺度特征直接对齐,该模型以像素数据作为输入并经过端到端训练后能够在大型环境中实现定位,同时通过精确的稀疏特征匹配以更小的代价实现关键点和姿态的联合优化。
Mar, 2021
本文针对如何从单个 RGB 图像中在给定的 3D 环境中预测 6D 相机姿态这一问题,通过设计并使用一个名为完全卷积神经网络的组件实现了高效、高精度和鲁棒性训练的端到端可训练的管道。令人惊奇的是,网络仅依靠单一视角的约束条件即可自动发现 3D 场景几何,甚至在没有利用场景 3D 模型的情况下,也能比现有技术更优秀。
Nov, 2017
本研究提出了一种基于姿态回归网络和图神经网络相结合的视觉重新定位方法,可在没有内参信息的情况下达到与绝对姿态回归网络相当的准确性,同时保持相对姿态回归模型的高测试速度和对非训练场景的适用性。
Apr, 2021
采用全帧方式进行场景坐标回归可以在测试时间内提高计算效率并增加回归过程的全局上下文以提高稳健性,而数据增强则有助于减轻过度拟合问题,从而提高基于图像识别的定位场景坐标预测的鲁棒性。
Feb, 2018
使用序列图像中的局部信息支持全局相机重定位,提出了包括内容增强姿态估计和基于运动的细化两个步骤的新方法,实验结果表明我们的方法在一些具有挑战性的情况下表现优于最先进的方法,例如纹理不足、高度重复的纹理、相似的外观和过度曝光。
Aug, 2019
本研究提出了一种基于两个阶段的框架,通过从单个图像中估计相机姿态来预测 3D 车道,使用辅助的 3D 车道任务和几何约束来获得多任务学习的好处,增强 3D 和 2D 之间的一致性和在这两个任务之间的兼容性,在没有地面真值相机姿态的情况下,我们的方法胜过基于完美相机姿态的最先进方法,并且具有最少的参数和计算量。
Dec, 2021