LIBRE: 多个 3D LiDAR 数据集
利用 LiDAR 传感器获取关于场景的精确几何信息支持自动驾驶,本文提供一种新颖的数据集,旨在为源数据集的性能评估提供跨领域评估,同时提供一个灵活的在线基准测试,以确保各种方法之间的公平比较。
Oct, 2023
该研究提供了一个综合多传感器数据集,旨在挑战性室内外环境中进行 3D 地图制作。数据集包括红外相机、深度相机、LiDAR 和 4D 毫米波雷达的数据,提供了探索先进感知和制图技术的可能性。多种传感器数据的整合增强了在极端条件下(如雨、雪和不平整的道路表面)的感知能力。数据集还包括室内外以不同速度运行的交互式机器人数据,提供了逼真的背景环境。通过类似路线的 SLAM 比较,分析了不同复杂场景对各个传感器的影响。采用各种 SLAM 算法处理数据集,揭示了不同场景中算法性能的差异。总之,该数据集解决了特殊环境中数据稀缺的问题,促进了在极端条件下感知和制图算法的发展。利用包括红外、深度相机、LiDAR、4D 毫米波雷达和机器人交互的多传感器数据,该数据集推动了智能制图和感知能力的进步。我们的数据集可在此链接获取:https://example.com/dataset
Apr, 2024
DurLAR 是一个高保真度的 128 通道 3D LiDAR 数据集,具有全景环境(近红外)和反射率图像,用于自动驾驶应用的深度估计的样本基准任务,提供了超过以前的基准的分辨率,在 DurLAR 中,通过使用高分辨率但稀疏的真场景深度信息,我们提出了一种新的联合监督 / 自监督损失函数。我们在 DurLAR 数据集、KITTI 基准和 Cityscapes 数据集上进行性能比较,评估结果显示,在 DurLAR 中使用联合监督和自监督损失项,通过优越的真实分辨率和可用性,提高了领先的当代单目深度估计方法的定量和定性性能(RMSE = 3.639,Sq Rel = 0.936)。
Jun, 2024
本研究针对自动驾驶的核心传感器进行研究,发现同时融合相机和 LiDAR 两种模式可以显著提升其性能。然而,由于当前数据集来自于昂贵的数据收集车辆,无法完全反映真实数据分布。 因此,我们提出了一种系统性的鲁棒性基准测试工具包,并在 nuScenes 和 Waymo 中建立了鲁棒性基准测试,针对当前的融合方法进行综合性分析。最后,我们提出了一种高效的鲁棒性训练策略。
May, 2022
这篇论文介绍了第一个大规模的 3D 反射检测数据集,包含超过 50,000 个多返回 Lidar、RGB 图像和 2D/3D 语义标签样本,在各种室内环境中,含有不同类型的反射。通过纹理化的 3D 地面真实网格实现自动点云标注,提供精确的地面真实标注。详细的评估对比了三种 Lidar 点云分割方法,以及当前最先进的图像分割网络对玻璃和镜子的检测。该数据集通过提供准确的全局对齐、多模态数据和各种反射物体和材料,推动了反射检测的进一步研究。该数据集可以在指定的 http 链接公开获取。
Mar, 2024
本文介绍了一份在罗马收集的视觉和感知研究数据集,包括 RGB 数据、3D 点云、IMU 和 GPS 数据,并引入了一个新的基准用于视觉里程计和 SLAM,以推进自主机器人和计算机视觉的研究。
Apr, 2024
该研究介绍了一种新的大规模、高质量、多样化的自动驾驶数据集,其中包含了各种城市和郊区地理环境中的 1150 个场景,数据标注为 2D 和 3D 框,而 2D 和 3D 检测和跟踪任务的基线也得到了提供。
Dec, 2019
本文提出了一种名为 LiDARsim 的模拟器,利用真实数据生成 3D 场景,通过物理模拟和深度神经网络相结合来生成 LiDAR 点云,用于测试感知算法和评估安全场景。
Jun, 2020
该研究提出一种基于单目 RGB 图像的三维车辆检测方法,为此创建了 Cityscapes 3D 数据集,包含了所有类型车辆的三维标注信息,使得与基于 lidar 的方法相比具有更高效率和更大范围的标注信息。此外,研究将 2D 实例分割与 3D 包围盒成对提供,以便多任务学习。这对自动驾驶技术有着很重要的意义。
Jun, 2020