单目 SLAM 的半稠密三维语义映射
提出了一种利用神经隐式场表示解决室内场景语义 V-SLAM 问题的在线框架,并通过多项实验表明其在测试时间具有精确的跟踪、地图绘制和语义标注能力,能够扩展到 RGB 图像输入,为机器人视觉感知及相关问题提供了可行的解决方案。
Apr, 2023
使用卷积神经网络和密集同时定位和建图(SLAM)系统来将视觉感知转化为语义映射,实现在室内 RGB-D 视频帧之间的长期稠密对应以及在多个视点上的概率融合,从而生产有用的 3D 语义地图。
Sep, 2016
本文提出了一种基于实时语义 RGB-D SLAM 算法的方法,其能够在动态环境中检测已知和未知的运动物体,并通过仅对关键帧进行语义分割来减少计算成本,并保持静态地图以实现强健的相机跟踪,同时提出了一种有效的几何模块来检测未知的移动物体。该算法在公共数据集和实际应用场景中进行了评估,最终实现了在低功耗嵌入式平台上实时运行并能在动态环境中提供高精度的定位与跟踪。
Apr, 2021
本文在单目 SLAM 框架中嵌入了实时深度学习的目标检测器,将普通物体表示为四面体,进一步细化物体重建,检测附加平面标志并建模为独立地标志,可大幅提高系统的定位性能和语义地图的丰富程度。
Sep, 2018
本文提出一种名为 DS-SLAM 的鲁棒的语义视觉 SLAM 方法,旨在解决动态环境下的 SLAM 问题,通过将语义分割网络与运动一致性检查方法相结合,提高了在动态环境下的本地化精度,同时生成了一个稠密的语义八叉树地图,可用于高级任务中。经过多组测试,DS-SLAM 的绝对轨迹精度比 ORB-SLAM2 提高了一个数量级,是当前高动态环境下最先进的 SLAM 系统之一。
Sep, 2018
MoD-SLAM 是一种基于神经网络的单目稠密建图方法,通过使用单目深度估计来优化场景重建,并利用闭环检测来更新相机姿态,实现实时在无边界场景中进行全局姿态优化和三维重建。与以往神经网络建图方法相比,我们的方法更加稳健、可扩展和多功能,在大型无边界场景中表现出更卓越的建图性能。
Feb, 2024
本文提出一种仅基于立体相机系统完成 3D 语义映射的完整流程,其中包括全局优化的直接稀疏视觉里程表前端和 GNSS 集成,以及语义 3D 点云标记的后端。作者提出了一种简单但有效的时间投票方案,提高了 3D 点标签的质量和一致性,并在 KITTI-360 数据集上进行了定性和定量评估,结果表明了提出的投票方案的有效性和流水线对于大规模高效 3D 语义映射的能力。另外,作者还展示了流水线的大规模映射能力,展示了由车队收集的数据生成的覆盖 8000 公里道路的大规模语义地图。
Mar, 2022
该研究提出了一种基于深度学习的统一框架,通过将相机视频、运动传感器(GPS/IMU)和三维语义地图进行传感器融合,以实现自主驾驶、自我定位和场景分类等多个应用领域中场景解析和相机姿态同时处理的目的。研究使用的技术包括渲染技术,使用相机姿态和三维语义地图生成标注地图,并在深度神经网络中进行联合训练,以提高姿态估计精度。该研究表明,相较于单一传感器,传感器融合对于目标跟踪及姿态估计具有更高的鲁棒性和准确性。
May, 2018
本文提出了一种基于三维激光雷达测距扫描和神经网络对语义信息进行提取的建图及定位方法,实现了对运动物体的有效滤波和语义信息约束下的扫描匹配,与现有基于几何约束的方法相比,实验结果表明其性能更优。
May, 2021
本文提出了一种基于结构和图像的语义匹配方法,能够在诸如季节、亮度、天气和昼夜变化等多种条件下实现准确和稳健的视觉定位,实验证明该方法相较于现有技术有显著的提升。
Apr, 2019