基于 LiDAR 强度的鲁棒地点识别的本地描述符
本文介绍了一种新颖的三通道场所描述符,由图像、点云和融合分支组成,利用相机与激光雷达之间的相关性进行信息交互和融合,从而实现在具有透视变化、季节变化和场景变换等挑战性环境中进行地点识别。在 KITTI、NCLT、USVInland 和校园数据集上的大量实验证明,所提出的场所描述符是当前最先进的方法,证实了它在复杂场景中的稳健性和普适性。
Oct, 2023
本文提出了一种实现实时、不需要校准的自动驾驶汽车定位系统,该方法通过学习将在线 LiDAR 扫描和强度图嵌入到联合的深度嵌入空间中,并通过嵌入之间的有效卷积匹配来进行定位。在不同的 LiDAR 传感器和环境下,我们的系统能够以 15Hz 的实时速度实现厘米级别的精度。在超过 4000 公里的驾驶大数据集上,我们的实验表明了所提出方法的性能。
Dec, 2020
本文提出一种名为 (LC)$^2$ 的新型交叉匹配方法,通过将 LiDAR 测量值表达为范围图像进行匹配,然后从视差和范围图像中提取本地化描述符来实现无先前点云地图的 LiDAR 本地化,并在姿势图中将最佳匹配作为循环因素,从而通过公共数据集证明了基于 LiDAR 的导航系统可以从图像数据库中优化,反之亦然。
Apr, 2023
本文提出 Locus,一种使用 3D LiDAR 点云的新型地点识别方法,在大规模环境中提取和编码场景中与组件相关的拓扑和时间信息,并使用二阶池化和非线性变换聚合这些多层特征以生成不变于输入特征排列的固定长度全局描述符。该方法在 KITTI 数据集上优于最先进的方法,并证明对 3D LiDAR 点云中的多种挑战性情境具有鲁棒性。
Nov, 2020
提出了一种名为 LCPR 的新型神经网络,该网络融合 LiDAR 点云和多视角 RGB 图像,生成环境的具有区分性和偏航旋转不变性的表示,从而提高了地点识别性能并保持了对视角变化的强鲁棒性。
Nov, 2023
该论文提出了一种解决全局定位问题的方法,通过使用基于 Siamese LocNets 的半手工表示学习方法,在全局先验地图中实现了场所识别和尺度姿态估计,并且提出了一个使用仅距离观测的全局定位框架。通过 KITTI 数据集和自主收集的多个数据集的实验结果表明,该系统能够实现高精度的全局定位。
Dec, 2017
提出了一种基于神经网络的方法,用于检测在机器人运行期间的定位问题,着重关注激光雷达测距定位模块,该方法通过模拟数据训练,可以适用于不同的环境和传感器类型,并在挑战性环境下进行了实地实验测试。
Mar, 2022
本研究介绍了一种基于 LiDAR 和 RGB 相机图像的判别式多模态描述符 MinkLoc++,该描述符可用于机器人或自动驾驶应用的位置识别、重新定位和环路闭合,同时使用深度度量学习方法来减轻多模态描述符训练过程中可能存在的主导模态问题,该方法在标准的位置识别基准测试上实现了最先进的性能。
Apr, 2021
我们提出了一种新颖的 Voxel-Cross-Pixel(VXP)方法,通过自监督方式建立了体素和像素之间的对应关系,并将其带入共享特征空间,从而解决了在不同领域(2D 图像和 3D 点云)提取一致且鲁棒的全局描述符的挑战。通过在三个基准测试集(Oxford RobotCar、ViViD++ 和 KITTI)上进行的大量实验证明,我们的方法在跨模态检索方面超越了现有技术的很大幅度。
Mar, 2024