LCPR: 基于多尺度注意力的 LiDAR 相机融合网络用于地点识别
本文介绍了一种新颖的三通道场所描述符,由图像、点云和融合分支组成,利用相机与激光雷达之间的相关性进行信息交互和融合,从而实现在具有透视变化、季节变化和场景变换等挑战性环境中进行地点识别。在 KITTI、NCLT、USVInland 和校园数据集上的大量实验证明,所提出的场所描述符是当前最先进的方法,证实了它在复杂场景中的稳健性和普适性。
Oct, 2023
本研究介绍了一种基于 LiDAR 和 RGB 相机图像的判别式多模态描述符 MinkLoc++,该描述符可用于机器人或自动驾驶应用的位置识别、重新定位和环路闭合,同时使用深度度量学习方法来减轻多模态描述符训练过程中可能存在的主导模态问题,该方法在标准的位置识别基准测试上实现了最先进的性能。
Apr, 2021
提出了一种新的融合网络 EINet,利用 LiDAR 和摄像头数据实现了多模态特征的显式交互,并在 nuScenes 数据集上建立了一个新的基准,实验结果表明,相比现有的融合式地点识别方法,EINet 具有更好的识别性能和稳健的泛化能力。
Feb, 2024
本文章提出了一种基于感知信息的多传感器融合策略(PMF),用于自动驾驶等应用中的 3D LiDAR 语义分割,通过两个模态的外观和空间深度信息进行感知信息融合并且提出了感知相关的损失函数用于衡量两种模式之间的差异性,实验结果证明了该方法的优越性。
Jun, 2021
该论文提出了一种多传感器融合、动态匹配序列长度技术和自动处理方法权重方案相结合的新颖的图像处理方法,在识别质量度量分析的基础上,提高了定位的性能要求,实现了优于两种最先进的视觉地点识别系统的结果。
Mar, 2019
使用深度学习方法结合 LIDAR 和相机图像,开发了一种道路检测方法,通过使用多模式信息,新提出的交叉融合 FCN 实现了更高的准确性,表现优异并跻身最佳方法之列。
Sep, 2018
通过引入快速轻量级的框架,将图像和点云转换成具有地点鉴别性的描述符。实验结果表明,所提出的方法在实时执行的同时达到了最先进的性能,具有实际的泛化能力。
Mar, 2024
本研究旨在通过多尺度注意力模块,实现从视觉和语义内容中学习鲁棒全局嵌入以及动态引导的分割过程,以提高视觉地点识别的准确性,同时提出第一个适用于地点识别和分割任务的合成世界数据集,实验证明方法在不同情景下具有良好性能。
Jan, 2022
本文提出一种名为 (LC)$^2$ 的新型交叉匹配方法,通过将 LiDAR 测量值表达为范围图像进行匹配,然后从视差和范围图像中提取本地化描述符来实现无先前点云地图的 LiDAR 本地化,并在姿势图中将最佳匹配作为循环因素,从而通过公共数据集证明了基于 LiDAR 的导航系统可以从图像数据库中优化,反之亦然。
Apr, 2023
本研究提出了一种多尺度 LiDAR 辅助透视变换神经网络,利用点云信息将图像特征投影到俯视图中,从而在大幅度提升语义网格生成方面取得了实质性的进展,实现了 25FPS 的实时性能。
Feb, 2023