TJ4DRadSet:自动驾驶四维雷达数据集
雷达在自动驾驶环境感知方面相较于广泛采用的摄像头和 LiDAR 具有更强的适应性。本文介绍了一个新颖的大规模多模态数据集,首次同时捕获了两种类型的 4D 雷达,为进一步研究有效的 4D 雷达感知算法提供了支持。
Oct, 2023
本文介绍了 KAIST-Radar 数据集,该数据集包含 4D Radar tensor 数据,并提供了附加的 Lidar、立体相机和 RTK-GPS 测量,用于提高雷达物体检测的准确性,该数据集包含逆境天气下的各类道路,提供了相关基准测试和神经网络,并证明了 4D Radar 更适合逆境天气条件下的物体检测。
Jun, 2022
本研究提供一份新的汽车雷达数据集,用于支持以机器学习为基础的雷达感知算法的研发,特别关注移动道路用户的检测和分类,数据集由四个系列雷达传感器提供数据,持续记录超过四个小时的驾驶过程,同时提供详细的测量和标注信息,以便确保算法的公共性能评估。
Apr, 2021
本研究介绍了 CARRADA 数据集,其中包含相机和雷达信号,以及一种半自动注释方法和一种基于雷达的语义分割基线方法。
May, 2020
传感器融合在自主车辆的准确和健壮的感知系统中至关重要。大多数现有的数据集和感知解决方案都专注于相机和激光雷达的融合,然而相机和雷达之间的协作被显著地低估。本论文介绍了 CRUW3D 数据集,包括 66K 个在不同行驶情景中同步并进行了校准的相机、雷达和激光雷达帧。与其他大规模自动驾驶数据集不同,我们的雷达数据以射频(RF)张量的格式呈现,包含了 3D 位置信息和时空语义信息。这种雷达格式可以使机器学习模型在相机和雷达之间交互和融合信息或特征后生成更可靠的物体感知结果。
Nov, 2023
通过使用 CenterRadarNet 来从 4D 雷达数据中进行高分辨率表示学习,对于 3D 物体检测和重新识别任务进行了有效的联合建模,取得了在 K-Radar 3D 物体检测基准测试上的最新成果,并在 K-Radar 数据集 V2 上展示了首次使用雷达进行的 3D 物体追踪结果。
Nov, 2023
本文介绍了一份新的挑战性 A*3D 数据集,以满足自动驾驶研究任务在高度多样化的环境中的需求,并采用基于 RGB 图像和 LiDAR 数据的丰富多样的场景、时间和天气情况,其中包括重度遮挡和大量的夜间框架,共包含 39K 帧、7 个类别和 230K 个 3D 对象注释。对 A*3D 数据集进行广泛的 3D 对象检测基准评估,对高密度、白天 / 黑夜等各种属性给出了有趣的见解。
Sep, 2019
自动驾驶技术在公共道路和工业场景中越来越普遍,但传统摄像头或激光雷达在恶劣环境下的表现受到影响。我们提出了一种基于 4D 雷达的 CNN 架构 TMVA4D,用于语义分割,并且说明了构建数据集的过程。在工业环境的数据集上,我们使用 TMVA4D 获得了 78.2% 的平均交并比分数和 86.1% 的平均 Dice 分数。
Apr, 2024
本文提出了一种基于深度学习的 Range-Azimuth-Doppler 多类物体检测算法,并伴随着一个包含动态道路用户的弯曲区域、类别标签和 2D 边界框的 novel radar 数据集,并提出了一种实例化自动注释方法
May, 2021