无盲区:使用相机和激光雷达进行全方位多目标自动驾驶跟踪
该研究提出了一个通用的、传感器无关的多模态多目标跟踪框架,通过在数据关联过程中编码点云的深度表示,使每种模态能够独立执行其职能以保证其可靠性,并通过新型的多模态融合模块进一步提高其精度。该框架在 KITTI 基准上的表现达到了最新水平。
Sep, 2019
本文提出了一种新颖的多模态多目标跟踪算法,用于自动驾驶汽车,该算法结合了相机和 LiDAR 数据。通过使用先进的 3D 物体检测器处理相机帧,以及使用经典的聚类技术处理 LiDAR 观察数据。该算法由三个步骤的联合过程、用于估计每个检测到的动态障碍物运动的扩展卡尔曼滤波器,以及轨迹管理阶段组成。与大多数先进的多模态目标跟踪方法不同,该算法不依赖地图或车辆全局姿态的知识。此外,它专门针对相机使用 3D 检测器,并且对使用的 LiDAR 传感器类型不敏感。该算法在仿真环境和实际数据中进行验证,并且结果令人满意。
Mar, 2024
提出了一种基于 Transformer 的多模态传感器输入的端到端多目标跟踪算法(MotionTrack),它由基于 Transformer 的数据关联(DA)模块和基于 Transformer 的查询增强模块组成,同时实现了多目标检测(MOD)。MotionTrack 及其变体在 nuScenes 数据集上获得更好的结果(AMOTA 得分为 0.55),与 AB3DMOT、CenterTrack 和概率 3D 卡尔曼滤波器等经典基线模型相比有着更好的表现。
Jun, 2023
本文介绍了一种新的多目标跟踪方法 EagerMOT,它使用深度传感器和相机来融合对目标的观察,以实现对移动机器人周围物体在三维空间和时间上的定位,实验表明 EagerMOT 方法在 KITTI 和 NuScenes 数据集上达到了先进水平。
Apr, 2021
本文提出了一种有效的多模态 MOT 框架,包括使用 2D 和 3D 测量的联合目标检测和关联的端到端深度神经网络、用于计算 3D 空间中遮挡感知的外观和运动相似度的有效计算模块、以及联合优化检测置信度、相似度和开始 - 结束概率的综合数据关联模块,实验证明所提出方法在跟踪精度和处理速度方面优于 KITTI 跟踪基准。
Aug, 2021
3D 多目标跟踪是自动驾驶领域中的一个重要问题,本文对该领域的研究现状进行了综述和总结,提出了未来的研究方向,包括问题界定、分类、方法论、挑战、实验指标和数据集等方面的系统讲解和比较,为未来的研究提供了指导。
Sep, 2023
通过融合 2D 图像与 3D LiDAR 点云的特征,学习度量,以及在无匹配目标检测时初始化跟踪,提出了一种概率、多模态、多对象跟踪系统,实现了比现有技术更鲁棒、数据驱动的多对象跟踪。
Dec, 2020
提出一种应用注意力度量编码来解决自动驾驶场景下多目标跟踪问题的方法,此方法通过软性数据关联来聚合所有物体检测的信息,从而使得模型能够在数据驱动的方式下推理出目标物体的遮挡情况并进行跟踪,实验结果表明该方法在规模较大的数据集上优于现有的视觉多目标跟踪技术。
Aug, 2020
本文介绍了一种在线目标跟踪方法,采用卡尔曼滤波器估算对象状态,并测量预测对象状态和当前检测数据之间的马氏距离以进行数据关联,该方法在 NuScenes Tracking Challenge 中表现优异。
Jan, 2020
通过对 Kalman 滤波进行改进以减小轨迹漂移噪声,并引入一种新的在线轨迹有效性机制来减少幽灵轨迹,从而在 3D 多物体跟踪中提出了 RobMOT 框架,该框架在各种检测器上表现出优于截至目前最先进方法的卓越性能,包括深度学习方法,在 MOTA 上的边缘为 3.28%,在 HOTA 上的边缘为 2.36%,并且在处理延迟上提高了 59%。
May, 2024