基于图像的定位的场景坐标和对应关系学习
采用全帧方式进行场景坐标回归可以在测试时间内提高计算效率并增加回归过程的全局上下文以提高稳健性,而数据增强则有助于减轻过度拟合问题,从而提高基于图像识别的定位场景坐标预测的鲁棒性。
Feb, 2018
本研究提出了一种新的基于层次场景坐标网络的方法,用于从单个 RGB 图像中逐步预测像素场景坐标,并在单幅图像中取得了新的最佳单色彩 RGB 定位性能,同时也减小了性能差距。
Sep, 2019
本文提出一种基于新的角度重投影误差损失方法的卷积神经网络训练方式,在无需精确初始化的情况下能够获得更准确的结果,并且可以利用多视角约束来进一步提高性能。
Aug, 2018
本文针对如何从单个 RGB 图像中在给定的 3D 环境中预测 6D 相机姿态这一问题,通过设计并使用一个名为完全卷积神经网络的组件实现了高效、高精度和鲁棒性训练的端到端可训练的管道。令人惊奇的是,网络仅依靠单一视角的约束条件即可自动发现 3D 场景几何,甚至在没有利用场景 3D 模型的情况下,也能比现有技术更优秀。
Nov, 2017
本研究提出了一种新颖的联合语义本地化和场景理解方法,通过训练卷积神经网络,通过物体实例的自我表征和 6-DoF 相机姿态预测来实现 3D 场景坐标估计,并且相比直接姿态回归或基于场景坐标的姿态估计算法更加准确。
Sep, 2019
本文提出了一种改进的方法来解决摄像机位姿估计问题,利用回归森林对场景中的关键点进行对应,采用几何方法评分并选择最有前途的假设,使用多个快速但不精确的重新定位器级联,调整参数以实现有效的性能,实现了重定位性能的显着提升。
Oct, 2018
本文提出了一种新的 Hierarchical Scene Coordinate 网络,可以在一个像素级的场景坐标的预测中,以逐层递进地方式执行粗到细的预测,这种新方法在单图像定位方面表现出较好的性能,并在 7-Scenes,12 Scenes,Cambridge Landmarks 数据集和室内场景数据集上创下了新的最佳表现。
May, 2023
本研究提出了一种新的方法来利用在一个场景中训练的神经网络来预测另一个场景中的点,以实现相机在线定位,并在 7-Scenes 和 Cambridge Landmarks 数据集上实现了最先进的性能,运行时间低于 300 毫秒。
Jun, 2019
通过利用少量的标签数据(即相机姿态),本文提出了一种学习方法,将这些标签与刚性对齐相结合,学习场景的三维几何表示,并将其用于估计相机的六自由度姿态,从而提高了定位的准确性。
Dec, 2023