基于成像雷达的多目标跟踪的三维物体检测
移动自主性依赖于对动态环境的精确感知。因此,鲁棒地跟踪三维世界中的移动物体对于轨迹预测、避障和路径规划等应用至关重要。尽管大多数当前方法利用激光雷达或摄像头进行多目标跟踪 (MOT),但四维成像雷达的能力仍然很少被探索。针对四维雷达数据中的雷达噪声和点稀疏性带来的挑战,我们介绍了一种针对基于雷达的跟踪的创新解决方案 RaTrack。我们的方法摒弃了对特定物体类型和三维边界框的依赖,而是专注于运动分割和聚类,并且通过运动估计模块进一步丰富。在 View-of-Delft 数据集上进行评估,RaTrack 展示了对移动物体的优越跟踪精度,明显超过了最新研究的性能。
Sep, 2023
自动驾驶中,识别和追踪周围物体是必不可少的。本论文提出了一种相机 - 雷达融合模型用于三维物体检测和多目标追踪,通过合并雷达传感器的空间和速度信息,实现了检测和追踪能力的大幅提升。
Mar, 2024
通过融合 2D 图像与 3D LiDAR 点云的特征,学习度量,以及在无匹配目标检测时初始化跟踪,提出了一种概率、多模态、多对象跟踪系统,实现了比现有技术更鲁棒、数据驱动的多对象跟踪。
Dec, 2020
本文提出了一种新颖的多模态多目标跟踪算法,用于自动驾驶汽车,该算法结合了相机和 LiDAR 数据。通过使用先进的 3D 物体检测器处理相机帧,以及使用经典的聚类技术处理 LiDAR 观察数据。该算法由三个步骤的联合过程、用于估计每个检测到的动态障碍物运动的扩展卡尔曼滤波器,以及轨迹管理阶段组成。与大多数先进的多模态目标跟踪方法不同,该算法不依赖地图或车辆全局姿态的知识。此外,它专门针对相机使用 3D 检测器,并且对使用的 LiDAR 传感器类型不敏感。该算法在仿真环境和实际数据中进行验证,并且结果令人满意。
Mar, 2024
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021
本研究讨论了一种实时的用于自动驾驶场景的动态物体检测算法,该算法利用了先前建立的 Lidar 点云的静态背景模型,并将动态物体检测视为背景减法问题。研究者提出了拒绝级联结构用于对道路区域和其他 3D 区域分别进行减法操作,该算法基于 CARLA 模拟器进行了初步实现和准确度评估。
Sep, 2018
该论文探讨了基于 4D 成像雷达和摄像头的图像视图转换策略并提出一种 “雷达占用格辅助深度采样” 的方法,该方法在 VoD 和 TJ4DRadSet 数据集上的实验结果均表现出较高水平的 3D 物体检测性能。
Jul, 2023
本论文介绍了一种利用提升式激光雷达(LiDAR)传感器的能力,通过转变交通场景中的三维物体检测和分析的框架来改善在城市环境中的三维物体检测能力。利用模拟器生成三维点云数据集,通过训练和评估三维物体检测模型,准确识别和监测模拟城市交通环境中的车辆和行人。针对由模拟交通生成的大量点云数据,优化了基于点体素区域的卷积神经网络(PV-RCNN)架构,提升了其处理和理解能力。实验结果表明所提出的解决方案在准确检测交通场景中的物体方面的有效性,并强调了激光雷达对提升城市安全和推动智能交通系统的作用。
May, 2024
该论文提出一种基于鸟瞰视角融合学习的无锚定框物体检测系统,融合雷达和光学雷达的特征来估计可能的目标,并采用新颖交互式变形模块来进一步提高性能。在最近发布的牛津雷达机器人车数据集上进行测试,该系统在 0.8 IoU 下的性能显着优于最佳现有技术方法,可在清晰和雾天下分别提高 14.4%和 20.5%的平均精度。
Nov, 2022