基于光流的动态稠密 RGB-D SLAM 系统 FlowFusion
本文提出了一种新颖的基于动态物体级别体积有符号距离函数表示法的 SLAM 方法,将多物体跟踪公式化为 RGB-D 图像与 SDF 表示法的直接对齐,通过概率方法进行数据关联和遮挡处理,实验结果表明该方法在鲁棒性和准确性方面优于现有的最优方法。
Apr, 2019
本文提出了一种基于实时语义 RGB-D SLAM 算法的方法,其能够在动态环境中检测已知和未知的运动物体,并通过仅对关键帧进行语义分割来减少计算成本,并保持静态地图以实现强健的相机跟踪,同时提出了一种有效的几何模块来检测未知的移动物体。该算法在公共数据集和实际应用场景中进行了评估,最终实现了在低功耗嵌入式平台上实时运行并能在动态环境中提供高精度的定位与跟踪。
Apr, 2021
提出了一种基于立体输入的视觉里程计法的稠密建图算法,该算法针对大规模动态城市环境中的高级移动机器人任务,同时重建静态背景、移动物体和潜在移动的静止物体。
May, 2019
本研究提出了一种在线物体级别 SLAM 系统,该系统通过使用 Mask-RCNN 实例分割将复杂的室内场景中的物体进行重建,没有进行内部变形,并将每个物体的信息存储在可优化的 6DoF 姿态图中,以实现高度内存效率和较高的在线性能。
Aug, 2018
本研究提出了一种基于深度学习的模型,用于估计连续 RGB-D 图像之间的场景流,可以将场景分成多个刚体运动的对象,利用编码和解码阶段,得到了像素级目标中心、运动和旋转估计,并在大规模合成和真实数据集上测试了模型性能。
Apr, 2018
本文提出了一种基于 RGB-D 传感器的方法,能够稳定地在包含多个动态元素的场景中进行地图绘制和定位,并在现有数据集上对其进行评估和发布。
May, 2019
本研究提出了一种新的多帧场景流计算方法,包括景深和光流以及相机自运动,同时从移动立体相机中观察动态场景,并将移动对象与固定场景分割开来。该技术在立体匹配和视觉里程计中使用独特的策略,融合移动目标的光流信息和相机基于运动流的信息来提高场景深度和相机自运动估计的精度和效率。
Jul, 2017
提出了一种新的基于对象级八叉树的体积表示的多实例动态 RGB-D SLAM 系统,可以在动态环境中提供强大的相机跟踪性能,并同时连续估计场景中任意对象的几何、语义和运动属性。
Dec, 2018
本文介绍了 Co-Fusion,它是一种密集型 SLAM 系统,使用实时的 RGB-D 图像流作为输入并将场景分割为不同的对象(使用运动或语义线索)同时实时跟踪和重建它们的 3D 形状。我们使用多模型拟合方法,其中每个对象可以独立移动并仍然可以有效跟踪其形状并在时间上融合它们。因此,我们的系统可以使机器人在对象层面维护场景描述,从而使其能够与其工作环境进行交互,即使场景是动态的。
Jun, 2017