D2S:相机重定位中的本地描述符和全局场景坐标表示
本研究提出了一种新的基于层次场景坐标网络的方法,用于从单个 RGB 图像中逐步预测像素场景坐标,并在单幅图像中取得了新的最佳单色彩 RGB 定位性能,同时也减小了性能差距。
Sep, 2019
这篇论文介绍了一种基于学习的系统,可以通过单个输入图像相对于已知环境估计相机的位置和方向,该系统采用了深度神经网络和可完全微分的姿态优化,可以适应不同应用程序,包括使用 RGB-D 或 RGB 图像进行训练,并可以使用环境的三维模型进行训练,但不是必需品。
Feb, 2020
本文针对如何从单个 RGB 图像中在给定的 3D 环境中预测 6D 相机姿态这一问题,通过设计并使用一个名为完全卷积神经网络的组件实现了高效、高精度和鲁棒性训练的端到端可训练的管道。令人惊奇的是,网络仅依靠单一视角的约束条件即可自动发现 3D 场景几何,甚至在没有利用场景 3D 模型的情况下,也能比现有技术更优秀。
Nov, 2017
本文提出了一种新的 Hierarchical Scene Coordinate 网络,可以在一个像素级的场景坐标的预测中,以逐层递进地方式执行粗到细的预测,这种新方法在单图像定位方面表现出较好的性能,并在 7-Scenes,12 Scenes,Cambridge Landmarks 数据集和室内场景数据集上创下了新的最佳表现。
May, 2023
本文提出了一种使用卷积神经网络在像素级别取得可靠对应的方法,该模型可以同时作为密集特征描述符和特征检测器,并且在后期检测可以获得比传统低级结构的更稳定的关键点,从而实现了在无法获取更多注释信息的情况下训练该模型,该方法可以在难以定位的数据集(Aachen Day-Night localization dataset)和室内定位测试基准(InLoc indoor localization benchmark)中获得最先进的表现,同时在其他图像匹配和 3D 重建基准测试中也有竞争力。
May, 2019
基于场景地标检测的摄像头定位方法,采用卷积神经网络(CNN)检测少量特定的场景 3D 点或地标,并从相关的 2D-3D 对应中计算摄像头姿态,具有与基于 3D 结构的方法相当的准确性,但速度更快且使用存储空间更少。
Jan, 2024
本研究提出了一种新颖的联合语义本地化和场景理解方法,通过训练卷积神经网络,通过物体实例的自我表征和 6-DoF 相机姿态预测来实现 3D 场景坐标估计,并且相比直接姿态回归或基于场景坐标的姿态估计算法更加准确。
Sep, 2019
在夜间场景、恶劣天气和季节变化等苛刻条件下进行视觉定位是一项具有挑战性的任务。本研究提出了一种新颖的定位方法,通过提取可靠的半稠密的 2D-3D 匹配点来改进相机位姿估计的准确性,即使在噪声场景中也能取得显著的成果。
Feb, 2024