ROADWork 数据集:学习识别、观察、分析和驾驶工作区
公路场景理解在自动驾驶中至关重要,使机器能够感知视觉环境。本文介绍了 RSUD20K 数据集,它由来自孟加拉国道路的超过 20K 张高分辨率图像组成,包含 13 种物体的 130K 个边界框注释。我们的工作在以往努力的基础上显著改进,提供了详细的注释和更复杂的物体。我们对数据集进行了全面的研究,对各种最先进的目标检测器进行了基准测试,并探索了大型视觉模型作为图像注释器。
Jan, 2024
本文提出了一种全新的、结合了逻辑约束的自动驾驶数据集 ROad event Awareness Dataset with logical Requirements(ROAD-R),通过该数据集证明当前最先进的模型经常违反逻辑约束,并建立了能够更好地遵守逻辑约束的模型。
Oct, 2022
本文介绍了 SHRP 2 NDS Video Analytics (SNVA) 软件应用程序,该应用程序从 NDS 设备的前置摄像头视频提取信息,并将该信息高效地整合到 RID 中,将视频内容与地理位置和其他行程属性相关联,其中包括了工作区域,交通信号状态和天气信息。
Nov, 2018
介绍了 Honda Research Institute Driving Dataset(HDD),这是一个挑战性数据集,包括 104 小时的人类真实驾驶行为。同时还提出了一种新的注释方法来研究未剪辑数据序列中的驾驶行为,通过训练和测试基线算法,展示了所提出任务的可行性。
Nov, 2018
道路边缘感知越来越受到重视,通过道路合作感知可以实现对交通区域的全面了解;然而,现有的道路边缘感知方法只关注单一基础设施传感器系统,无法覆盖交通区域的全面感知,因此需要道路合作感知来实现对受限交通区域的实际感知。本研究提供了第一个真实世界的大规模道路合作感知数据集,包括检测和跟踪,证明了道路合作感知的有效性,并展示了进一步研究的方向。
Mar, 2024
提出一种半自动化的方法,利用估计的 3D 道路平面投影所有图像序列中的标签,以实现图像序列的高效标注,平均每张图像的标注时间缩短到了 5 秒,无需使用昂贵的传感器设备,同时发布了一个包含 24,000 张图像的数据集并展示了实验结果。
Jul, 2018
为了实现自主驾驶高安全性要求下的鲁棒性,本文提出了一种新数据集的收集方法,覆盖多种天气、交通和场景,包含图像和点云数据以及高精度 GPS/INS 数据,并在此基础上分析了自动驾驶的三个关键问题的性能表现。
Aug, 2022
本文提出了一种新的旨在针对非结构化驾驶环境的 IDD 数据集,其中包括来自印度道路的 10,004 幅图像,涵盖了 34 个类别的精细注释,建议使用四级标签层次结构以适应不同训练方法,而现有的语义分割方法在 IDD 数据集上的准确度表现不佳。
Nov, 2018
本文介绍了第一个用于道路侧面感知任务的高多样性 Rope3D 3D 数据集,其中包括超过 1.5M 3D 物体,同时提出利用几何约束来解决各种传感器和视角引起的固有模糊,并针对现有的前视单眼 3D 目标检测方法进行了改进。
Mar, 2022
该研究介绍了一种新的大规模、高质量、多样化的自动驾驶数据集,其中包含了各种城市和郊区地理环境中的 1150 个场景,数据标注为 2D 和 3D 框,而 2D 和 3D 检测和跟踪任务的基线也得到了提供。
Dec, 2019