大规模动态环境下的鲁棒密集建图
研究使用光流残差技术实现动态语义感知的 RGB-D 环境下的 SLAM,同时实现动静分割、相机运动估计和静态背景重建。实验证明该方法在动态和静态环境中都比现有的方法具有更高的精度和效率。
Mar, 2020
本文提出一种仅基于立体相机系统完成 3D 语义映射的完整流程,其中包括全局优化的直接稀疏视觉里程表前端和 GNSS 集成,以及语义 3D 点云标记的后端。作者提出了一种简单但有效的时间投票方案,提高了 3D 点标签的质量和一致性,并在 KITTI-360 数据集上进行了定性和定量评估,结果表明了提出的投票方案的有效性和流水线对于大规模高效 3D 语义映射的能力。另外,作者还展示了流水线的大规模映射能力,展示了由车队收集的数据生成的覆盖 8000 公里道路的大规模语义地图。
Mar, 2022
本论文将最新的深度学习方法与基于视频流的半稠密 SLAM 相结合,在室内 / 室外数据集中得到了更好的 2D 语义标签识别,无需针对序列中的每一帧获得语义分割,其时间复杂度也得以合理控制。
Nov, 2016
本文提出了一种基于实时语义 RGB-D SLAM 算法的方法,其能够在动态环境中检测已知和未知的运动物体,并通过仅对关键帧进行语义分割来减少计算成本,并保持静态地图以实现强健的相机跟踪,同时提出了一种有效的几何模块来检测未知的移动物体。该算法在公共数据集和实际应用场景中进行了评估,最终实现了在低功耗嵌入式平台上实时运行并能在动态环境中提供高精度的定位与跟踪。
Apr, 2021
本研究提出了一种新的多帧场景流计算方法,包括景深和光流以及相机自运动,同时从移动立体相机中观察动态场景,并将移动对象与固定场景分割开来。该技术在立体匹配和视觉里程计中使用独特的策略,融合移动目标的光流信息和相机基于运动流的信息来提高场景深度和相机自运动估计的精度和效率。
Jul, 2017
我们提出了一种实时的基于视觉惯性的稠密建图方法,可使用顺序单眼图像和惯性测量单元(IMU)读数进行增量式三维网格重建,并提出了稀疏点辅助的多视角深度学习神经网络 (SPA-MVSNet),即使在噪声密集的情况下也能实现高质量的 3D 网格重建。
Jun, 2023
本文提出了一种用于从 LiDAR 重建大规模城市场景的动态表面重建方法,通过全局优化降低预测表面与输入 LiDAR 扫描数据的距离,实现了对刚性移动物体的运动补偿,并展示了该系统在自动标记局部注释序列和生成难以标记问题的真实注释方面的应用。
Jun, 2024
本文提出了一种基于光流和稀疏深度先验的方法,将动态场景模型假设为分段平面模型,计算其局部刚性变换和尽可能刚性的全局变换,无需显式估计 3D 旋转和平移即可高效恢复场景的深度密集图,适用于广泛的场景。
Feb, 2019
本研究提出了一种基于深度学习的模型,用于估计连续 RGB-D 图像之间的场景流,可以将场景分成多个刚体运动的对象,利用编码和解码阶段,得到了像素级目标中心、运动和旋转估计,并在大规模合成和真实数据集上测试了模型性能。
Apr, 2018