EffLoc: 高效的六自由度相机重定位的轻量级视觉 Transformer
CyberLoc 是一种图像定位管道,可在困难条件下实现稳健且准确的长期位姿估计;该方法由四个模块组成,包括地图构建、基于单个图像的定位、一致性最大化、鲁棒姿态优化,实验结果表明该方法能够在 Map-based Localization for Autonomous Driving 中获胜
Jan, 2023
本文介绍了一种使用循环模型进行短视频聚合并实现相机定位的方法。通过考虑短视频的时间平滑性,不仅可以使位姿估计更加平滑,还可以显著降低相机定位误差,并提出了一种从该模型中获得概率位姿估计的方法。我们在实际的自动驾驶和室内定位数据集上进行了评估。
Feb, 2017
通过针对数据库查询对获得的运动平均化的定制,我们展示了一种可以在不重建三维场景的情况下实现高定位准确性的方法,即 LazyLoc,它在多查询协同定位和相机支架等复杂配置方面表现出了多样性。
Jul, 2023
本研究利用深度神经网络进行对物体在已知场景下的姿态估计,其中提出了使用场景无关的神经网络模型 PixLoc,通过特征学习和度量学习方法将相机定位问题转换为多尺度特征直接对齐,该模型以像素数据作为输入并经过端到端训练后能够在大型环境中实现定位,同时通过精确的稀疏特征匹配以更小的代价实现关键点和姿态的联合优化。
Mar, 2021
相机位姿估计的方法可以通过找到对应关系和解决基础矩阵的方式在大多数情况下提供高精度,而使用神经网络直接预测姿态的方法对于有限重叠的情况更加鲁棒,并能够推断出绝对平移尺度,但精度较低。我们展示了如何结合这两种方法的优点;我们的方法能够同时提供精确和稳健的结果,并准确推断出平移尺度。我们模型的核心是一个 Transformer,它通过学习平衡已解决和学习的姿态估计,并提供一个先验信息来指导求解器。全面的分析支持了我们的设计选择,并证明了我们的方法能够灵活适应各种特征提取器和对应估计器,在 Matterport3D、InteriorNet、StreetLearn 和 Map-free Relocalization 上展现了最先进的 6 自由度姿态估计性能。
Mar, 2024
本研究中,我们使用注意力机制可实现更加几何鲁棒的物体和特征,即使仅使用单个图像作为输入,也可在常见基准测试中实现最先进的性能,并提供了广泛的实验证据。通过确定性的注视地图,我们证明网络通过学习拒绝动态物体来提高全局相机位姿回归性能。
Sep, 2019
本研究提出一种新型的端到端基于学习的 LiDAR 重定位框架,名为 PointLoc,它直接利用单个点云作为输入来推导 6-DoF 位姿,无需预先构建地图。该框架基于 PointNet,使用自我关注机制,能够高效地从 360 度 LiDAR 输入帧估计 6-DoF 位姿,并在实验中表现出较高的重定位精度。
Mar, 2020
从单个图像中估计相对于全局框架的六自由度相机姿态的问题,我们提出了一种利用相对空间和时间几何约束的新颖网络来引导定位的深度网络的训练方法。利用相邻相机帧和场景中时空距离较远的相机帧获得的空间和时间相对姿态约束,我们的方法能够学习到在只有少量或非常稀疏的地面真实 3D 坐标可用的情况下进行定位。我们在三个常见的视觉定位数据集上评估了我们的方法,并证明其优于其他直接姿态估计方法。
Dec, 2023
WSCLoc 系统用于弱监督和稀疏视图条件下的摄像机定位任务,通过两个阶段的联合优化提高了深度学习模型的性能,实现了超过当前方法的姿态估计准确性。
Mar, 2024
RobustLoc 是一个用于自动驾驶中的相机重定位系统,它使用神经微分方程进行信息扩散和卷积神经网络从多视角图像中提取特征图,同时配备多层训练的分支位姿解码器。使用 RobustLoc 可以在各种环境下实现相机的鲁棒定位。
Nov, 2022