PICCOLO:基于点云的全向定位
CPO 是一种针对 2D 全景图像和 3D 点云进行快速和鲁棒定位的算法,通过使用色彩直方图和得分图进行可靠定位,其重点是处理包含场景变化的情况。
Jul, 2022
本文介绍了 OmniColor,一种使用独立的 360 度相机对点云进行染色的新颖高效算法,通过在重建几何图像上联合优化所有帧的姿态,克服了全景图像的严重视觉畸变,并且在精确性和稳定性方面从 360 度相机的宽视角中获得了很大的好处。
Apr, 2024
介绍了一种利用 2D-3D 线条几何的轻量级而准确的定位方法,通过全景视图来定位,避免了训练或手工制作视觉描述符,提取线条关系中的主导方向和非平行线条的交点等以表达独特而紧凑的空间上下文,其结果表示与传统视觉描述符方法相比,处理时间和内存上更加高效;验证了该方法在具有相似结构、领域转变或光照变化的挑战性场景中的定位效果;由于是完全几何的方法,无需进行庞大的参数调整或神经网络训练,因此具有实际应用价值,可以直接部署在实际世界中。
Mar, 2024
利用预先建立的 LiDAR 地图作为固定约束,我们提出了一种新的成本效益的重建流程,以有效应对单目相机重建中固有的尺度挑战,并实现对兴趣区域的重建细节级别的灵活管理。
Oct, 2023
360Loc 是首个基于可视定位的横跨设备视觉定位数据集和基准。通过结合 360° 图像和激光雷达数据生成全景真实 6DoF 姿态,360Loc 实现了 360° 视图映射,并通过虚拟相机方法为不同查询类型的视觉定位任务提供了公平比较性能的机会。研究结果表明,全景视觉定位在具有对称和重复结构的大规模场景中更加稳健。
Nov, 2023
我们提出了一种新的端到端算法(PoCo)用于室内 RGB-D 场所识别任务,旨在识别给定查询帧在参考数据库中最可能的匹配。我们提出了一种新的网络架构,通过端到端学习直接从噪声点云中提取全局描述符,并将颜色和几何模态集成到点特征中以增强全局描述符表示。我们在公共数据集 ScanNet-PR 和 ARKit 上进行了评估,结果显示 PoCo 在性能和效率方面均优于已发表的最佳结果 CGis,并证明了 PoCo 在识别实际实验室环境中的位置方面的有效性。
Apr, 2024
本文研究如何利用深度学习估计点云里程计,并提出了一个称为 DeepPCO 的新型神经网络模型,可通过估计连续点云来预测 6 自由度姿态,实验结果表明该方法在位姿准确性方面表现良好。
Oct, 2019
本研究提出一种新型的端到端基于学习的 LiDAR 重定位框架,名为 PointLoc,它直接利用单个点云作为输入来推导 6-DoF 位姿,无需预先构建地图。该框架基于 PointNet,使用自我关注机制,能够高效地从 360 度 LiDAR 输入帧估计 6-DoF 位姿,并在实验中表现出较高的重定位精度。
Mar, 2020
本研究利用深度神经网络进行对物体在已知场景下的姿态估计,其中提出了使用场景无关的神经网络模型 PixLoc,通过特征学习和度量学习方法将相机定位问题转换为多尺度特征直接对齐,该模型以像素数据作为输入并经过端到端训练后能够在大型环境中实现定位,同时通过精确的稀疏特征匹配以更小的代价实现关键点和姿态的联合优化。
Mar, 2021
通过建立参考地图并使用 EP2P-Loc 方法,本文提出了一种新颖的大规模视觉定位方法,绕过 2D 和 3D 感知模态之间的表示差异,从而实现端到端的姿态估计,并在实验中表现出与现有视觉定位方法和图像到点云注册方法相比的最先进性能。
Sep, 2023