使用稀疏语义 3D 地图的视觉定位
该论文提出了一种基于联合三维几何和语义理解的新方法来解决计算机视觉中困难的视觉定位问题,该方法使用生成模型进行描述符学习,并在语义场景补全作为辅助任务进行训练,以使得生成的三维描述符具有鲁棒性,并能够实现在极端视角,光照和几何变化下的可靠定位。
Dec, 2017
提出了一种新颖的轻量级视觉语义定位算法,通过稳定的语义特征代替低级纹理特征,结合离线构建的语义地图和在线的数据关联实现实时的自动驾驶定位。实验结果表明,该方法在各种自动驾驶定位任务中是可靠且实用的定位解决方案。
Jun, 2024
在自动驾驶车辆的长期视觉导航中,利用图像的语义分割和 3D 点云制作具有语义标签的地图,通过粒子滤波来实现车辆定位,从而在大多数时候实现低于 1 米的定位误差。
Jan, 2018
本文提出了一种细粒度的室外机器人自定位方法,利用可调数量的机载摄像头和易获取的卫星图像;该方法解决了现有的跨视角定位方法因移动物体和季节变化等噪声源的问题;通过从地面和卫星视图中检测一致的关键点和它们对应的深度特征,去除离地物体,并在两个视图之间建立同伦变换,该方式是第一个仅利用视觉的稀疏方法,以提高动态环境下的感知能力;此外,该方法采用空间嵌入方法,利用相机内外参数信息降低纯视觉匹配的歧义性,从而提高特征匹配和姿态估计的准确性。通过在 KITTI 和 Ford Multi-AV Seasonal 数据集上进行大量实验,证明了该方法优于现有的最先进方法,能够实现横向和纵向方向上低于 0.5 米的中位空间准确性误差,以及小于 2 度的中位方向准确性误差。
Aug, 2023
本论文将最新的深度学习方法与基于视频流的半稠密 SLAM 相结合,在室内 / 室外数据集中得到了更好的 2D 语义标签识别,无需针对序列中的每一帧获得语义分割,其时间复杂度也得以合理控制。
Nov, 2016
该研究提出了一种基于深度学习的统一框架,通过将相机视频、运动传感器(GPS/IMU)和三维语义地图进行传感器融合,以实现自主驾驶、自我定位和场景分类等多个应用领域中场景解析和相机姿态同时处理的目的。研究使用的技术包括渲染技术,使用相机姿态和三维语义地图生成标注地图,并在深度神经网络中进行联合训练,以提高姿态估计精度。该研究表明,相较于单一传感器,传感器融合对于目标跟踪及姿态估计具有更高的鲁棒性和准确性。
May, 2018
本文提出一种仅基于立体相机系统完成 3D 语义映射的完整流程,其中包括全局优化的直接稀疏视觉里程表前端和 GNSS 集成,以及语义 3D 点云标记的后端。作者提出了一种简单但有效的时间投票方案,提高了 3D 点标签的质量和一致性,并在 KITTI-360 数据集上进行了定性和定量评估,结果表明了提出的投票方案的有效性和流水线对于大规模高效 3D 语义映射的能力。另外,作者还展示了流水线的大规模映射能力,展示了由车队收集的数据生成的覆盖 8000 公里道路的大规模语义地图。
Mar, 2022
在夜间场景、恶劣天气和季节变化等苛刻条件下进行视觉定位是一项具有挑战性的任务。本研究提出了一种新颖的定位方法,通过提取可靠的半稠密的 2D-3D 匹配点来改进相机位姿估计的准确性,即使在噪声场景中也能取得显著的成果。
Feb, 2024
本文提出了一种基于三维激光雷达测距扫描和神经网络对语义信息进行提取的建图及定位方法,实现了对运动物体的有效滤波和语义信息约束下的扫描匹配,与现有基于几何约束的方法相比,实验结果表明其性能更优。
May, 2021
介绍了一种使用语义特征的视觉惯性里程计系统 SemanticSLAM,可以在室内环境中进行可靠的相机定位,改善位姿估计并生成语义地图,可用于路径规划、避障和机器人导航等下游任务。
Jan, 2024