Fusion++: 三维物体级别 SLAM
提出了一种新的基于对象级八叉树的体积表示的多实例动态 RGB-D SLAM 系统,可以在动态环境中提供强大的相机跟踪性能,并同时连续估计场景中任意对象的几何、语义和运动属性。
Dec, 2018
本文提出了一种新颖的基于动态物体级别体积有符号距离函数表示法的 SLAM 方法,将多物体跟踪公式化为 RGB-D 图像与 SDF 表示法的直接对齐,通过概率方法进行数据关联和遮挡处理,实验结果表明该方法在鲁棒性和准确性方面优于现有的最优方法。
Apr, 2019
该论文介绍了一个实时分割和重构系统,利用 RGB-D 图像生成准确而详细的物体三维模型,可以应用于增强 / 虚拟现实、室内设计、城市规划、道路辅助和安全系统等领域。通过采样连续帧以减少网络负载并确保重构质量,采用多进程 SLAM 管道实现并行三维重构,并使用了业界领先的 YOLO 框架进行实例分割,以提高性能和准确性。该系统在室内环境中建立了一个强大的实时系统,对物体分割和重构具有重要的增强效果,也可以扩展到室外场景,为实际应用开辟了众多机会。
Nov, 2023
研究使用光流残差技术实现动态语义感知的 RGB-D 环境下的 SLAM,同时实现动静分割、相机运动估计和静态背景重建。实验证明该方法在动态和静态环境中都比现有的方法具有更高的精度和效率。
Mar, 2020
本文提出了一种基于实时语义 RGB-D SLAM 算法的方法,其能够在动态环境中检测已知和未知的运动物体,并通过仅对关键帧进行语义分割来减少计算成本,并保持静态地图以实现强健的相机跟踪,同时提出了一种有效的几何模块来检测未知的移动物体。该算法在公共数据集和实际应用场景中进行了评估,最终实现了在低功耗嵌入式平台上实时运行并能在动态环境中提供高精度的定位与跟踪。
Apr, 2021
本文提出了一种基于 RGB-D 传感器的方法,能够稳定地在包含多个动态元素的场景中进行地图绘制和定位,并在现有数据集上对其进行评估和发布。
May, 2019
MaskFusion 是一种实时、对象感知、语义和动态的 RGB-D SLAM 系统,利用图像实例级语义分割创建语义对象掩码,对物体进行识别和重建,不需要已知的物体模型,发展到实现实例感知、语义和动态等增强现实应用。
Apr, 2018
提出了一种基于多视角视野的实时视觉系统,可以从单个 RGB-D 视角提出三维物体姿态建议,并且根据多个视角的姿态估计和非参数占用信息积累这些姿态估计,从而对接触的多个已知对象进行一致的、不相交的姿态估计。应用于实时机器人应用程序中,只使用机载 RGB-D 视觉,机械臂可以精确而有序地拆卸复杂的物体堆放,展示了其准确性和鲁棒性。
Apr, 2020
本文介绍了一种方法,用于在静态和动态环境下单个图像的三维立方体物体检测和多视图对象 SLAM,并展示了两个部分如何互相改进,对单个图像物体检测,我们从 2D 边界框和消失点采样中生成高质量的 cuboid 提议,并根据与图像边缘的对齐性对提议进行进一步评分和选择。其次,提出了新的对象测量的多视图束调整,以联合优化相机,对象和点的姿态。对象可以提供长程几何和尺度约束,以改善相机姿态估计并减少单眼漂移。而不是将动态区域视为异常值,我们利用对象表示和运动模型约束来改善相机姿态估计。在 SUN RGBD 和 KITTI 上进行的 3D 检测实验证明了与现有方法相比更高的准确性和鲁棒性。在公共 TUM,KITTI 测距和我们自己收集的数据集上,我们的 SLAM 方法实现了最先进的单眼相机姿态估计,同时提高了 3D 对象检测的准确性。
Jun, 2018
本文介绍了 Co-Fusion,它是一种密集型 SLAM 系统,使用实时的 RGB-D 图像流作为输入并将场景分割为不同的对象(使用运动或语义线索)同时实时跟踪和重建它们的 3D 形状。我们使用多模型拟合方法,其中每个对象可以独立移动并仍然可以有效跟踪其形状并在时间上融合它们。因此,我们的系统可以使机器人在对象层面维护场景描述,从而使其能够与其工作环境进行交互,即使场景是动态的。
Jun, 2017