AirLoc:基于目标的室内重定位
本文提出了一种基于图像的定位方法,使用本地特征和稀疏的三维模型进行全球规模的离线和在线实时客户端姿态融合,实现低延迟本地化查询,证明了该方法在大规模模型上的有效性。
Jun, 2019
LaLaLoc 利用房间布局的潜在表示进行本地化,通过潜在空间中的直接交叉模态姿态优化实现对全景图的细粒度姿态估计,从而在没有先前访问的情况下弥补了其它方法的缺陷,具有鲁棒性和较高的准确性。
Apr, 2021
使用新型的激光雷达 SLAM 技术和结构运动优化方法在大型商场和地铁站获取室内数据集以便于在室内环境中进行视觉定位,并测试现代化的视觉定位算法,证明结构基方法使用健壮的图像特征具有更高的性能。
May, 2021
本文提出了 RIO10 基准测试和工具,用于评估室内场景下长期相机重新定位的表现,并探讨了不同类型场景变化对不同方法的影响,并发现长期室内重新定位是一个尚未解决的问题。
Aug, 2020
提出了一种新颖的基于 AirObject 的时间 3D 对象编码方法,使用一种图注意力的编码方法,从多个视角获得结构信息,能够获得全局关键点图嵌入的全局 3D 对象嵌入。在视频对象识别方面具有最先进的性能,并且具有鲁棒性,比最先进的单帧和顺序描述符表现更出色。
Nov, 2021
本文提出了一种使用深度密集局部特征匹配和车辆检测器相结合的视觉定位框架,以消除车辆造成的虚假匹配,实现对室内停车场的定位,并在基准数据集上取得了 86.9% 的准确率,表现优于现有方法。
May, 2022
该论文提出了一种解决全局定位问题的方法,通过使用基于 Siamese LocNets 的半手工表示学习方法,在全局先验地图中实现了场所识别和尺度姿态估计,并且提出了一个使用仅距离观测的全局定位框架。通过 KITTI 数据集和自主收集的多个数据集的实验结果表明,该系统能够实现高精度的全局定位。
Dec, 2017
本文提出了一种基于深度学习的方法,通过视觉定位,使用锚点来预测场景的位置和摄像机方向或姿态(6 自由度),该方法使用统一定义的锚点并提出了一个深度学习架构,该架构预测场景中存在的最相关的锚点以及相对偏移量,并为该任务提出了一个多任务损失函数,无需基于真实位置信息评定,并在 CambridgeLandmarks 和 7 Scenes 上进行了实验以验证效果。与使用相同的特征提取器的先前最佳深度学习模型 Posenet(具有几何重投影损失)相比,我们的方法提升了室内和室外定位数据集中的中位误差,并在特定情况下,如街景中,将中位误差降低了 8m 以上。
Nov, 2018
本研究介绍了三维物体实例重新定位任务,提出了使用新的数据驱动方法 —— 完全卷积三维对应网络和位姿优化来完成该任务,并使用新建立的 3RScan 数据集和基准测试来评估其性能,实现了 30.58% 的准确率。
Aug, 2019