RADDet:基于距离 - 方位 - 多普勒的道路动态目标雷达检测
本文提出了一种基于深度学习算法的雷达目标检测方法,该方法可直接对原始雷达张量数据进行处理,在鸟瞰图空间中为检测到的目标放置概率定向边界框。借助新建的多模态数据集,仅使用原始雷达数据作为输入,发展了一种车辆检测管道,并取得了 77.28% AP(相对 3D 外接框交并比为 0.3)的最佳性能,实现了对传统角落式汽车雷达中原始雷达数据的目标检测。
Apr, 2020
本研究介绍了 CARRADA 数据集,其中包含相机和雷达信号,以及一种半自动注释方法和一种基于雷达的语义分割基线方法。
May, 2020
本文介绍了 KAIST-Radar 数据集,该数据集包含 4D Radar tensor 数据,并提供了附加的 Lidar、立体相机和 RTK-GPS 测量,用于提高雷达物体检测的准确性,该数据集包含逆境天气下的各类道路,提供了相关基准测试和神经网络,并证明了 4D Radar 更适合逆境天气条件下的物体检测。
Jun, 2022
通过使用 CenterRadarNet 来从 4D 雷达数据中进行高分辨率表示学习,对于 3D 物体检测和重新识别任务进行了有效的联合建模,取得了在 K-Radar 3D 物体检测基准测试上的最新成果,并在 K-Radar 数据集 V2 上展示了首次使用雷达进行的 3D 物体追踪结果。
Nov, 2023
自动驾驶技术在公共道路和工业场景中越来越普遍,但传统摄像头或激光雷达在恶劣环境下的表现受到影响。我们提出了一种基于 4D 雷达的 CNN 架构 TMVA4D,用于语义分割,并且说明了构建数据集的过程。在工业环境的数据集上,我们使用 TMVA4D 获得了 78.2% 的平均交并比分数和 86.1% 的平均 Dice 分数。
Apr, 2024
雷达在自动驾驶环境感知方面相较于广泛采用的摄像头和 LiDAR 具有更强的适应性。本文介绍了一个新颖的大规模多模态数据集,首次同时捕获了两种类型的 4D 雷达,为进一步研究有效的 4D 雷达感知算法提供了支持。
Oct, 2023
本文提出了一种名为 RODNet 的深度雷达物体检测网络,通过摄像机和雷达融合算法进行交叉监督,可以在实时的条件下有效地检测无线电频率 (RF) 图像中的物体。经过广泛的实验,我们的算法在各种驾驶条件下呈现了鲁棒性,并取得了 86%的平均精度和 88%的平均召回率。
Feb, 2021
该论文提出一种基于鸟瞰视角融合学习的无锚定框物体检测系统,融合雷达和光学雷达的特征来估计可能的目标,并采用新颖交互式变形模块来进一步提高性能。在最近发布的牛津雷达机器人车数据集上进行测试,该系统在 0.8 IoU 下的性能显着优于最佳现有技术方法,可在清晰和雾天下分别提高 14.4%和 20.5%的平均精度。
Nov, 2022
自主驾驶中基于雷达与视觉融合的深度学习方法对于三维目标检测起到重要作用,本文综述了雷达 - 视觉融合的综合研究,特别关注了区域兴趣融合和端到端融合策略,并介绍了最新的四维雷达技术及其在自动驾驶中的应用。
Jun, 2024