MCD:机器人感知的多样化大规模校园数据集
该研究提供了一个综合多传感器数据集,旨在挑战性室内外环境中进行 3D 地图制作。数据集包括红外相机、深度相机、LiDAR 和 4D 毫米波雷达的数据,提供了探索先进感知和制图技术的可能性。多种传感器数据的整合增强了在极端条件下(如雨、雪和不平整的道路表面)的感知能力。数据集还包括室内外以不同速度运行的交互式机器人数据,提供了逼真的背景环境。通过类似路线的 SLAM 比较,分析了不同复杂场景对各个传感器的影响。采用各种 SLAM 算法处理数据集,揭示了不同场景中算法性能的差异。总之,该数据集解决了特殊环境中数据稀缺的问题,促进了在极端条件下感知和制图算法的发展。利用包括红外、深度相机、LiDAR、4D 毫米波雷达和机器人交互的多传感器数据,该数据集推动了智能制图和感知能力的进步。我们的数据集可在此链接获取:https://example.com/dataset
Apr, 2024
过去十年中,虽然单一机器人感知取得了重大进展,但多机器人协同感知的研究仍未被广泛探索。本文提出了一个开创性的全面真实世界的多机器人协同感知数据集,用于推动这一领域的研究。我们的数据集利用了空中 - 地面机器人协同的未发掘潜力,具有不同的空间视角、互补的机器人移动性、覆盖范围和传感器模态。它提供了原始传感器输入、姿态估计和可选的高级感知注释,以适应各种研究兴趣。与现有主要设计用于同时定位和地图构建(SLAM)的数据集相比,我们的设置确保了多样化的传感器视角范围和足够的重叠以促进多机器人协同感知算法的研究。我们通过多个协同感知任务定性地证明了这个数据集的价值。我们相信这项工作将在多模态协同感知中解锁高级场景理解的潜在研究。
May, 2024
在这篇论文中,我们介绍了一个新的数据集,NTU4DRadLM,它同时包含了 6 种传感器:4D 雷达、热像仪、IMU、3D 激光雷达、视觉相机和实时定位 RTK GPS,具体设计用于 SLAM 任务,并提供了经过精调的真实轨迹和故意设计的闭环,以综合评估三种类型的 SLAM 算法。
Sep, 2023
在自动驾驶汽车中实现第五级驾驶自动化需要一个强大的语义视觉感知系统,它能够解析来自不同传感器的数据,并适应多种条件。为了解决现有语义感知数据集中通常缺乏自动驾驶汽车中常用的重要非相机模式,或者未能利用这些模式来帮助和改善具有挑战性条件下的语义注释的问题,我们引入了 MUSES,即用于在恶劣条件下以增加的不确定性驾驶的多传感器语义感知数据集。MUSES 包括在多样化的天气和照明条件下捕获的 2500 张图像的同步多模态记录,并具有 2D 全景注释。该数据集整合了帧相机、激光雷达、雷达、事件相机和 IMU/GNSS 传感器。我们的新型两阶段全景注释协议捕捉了真实值中的类别级别和实例级别的不确定性,引入了我们的新任务 —— 不确定性感知全景分割,并同时提供标准的语义分割和全景分割。MUSES 在多样的视觉条件下既对训练有效又具有挑战性,为多模态和不确定性感知中的研究开辟了新的途径。我们的数据集和基准将公开提供。
Jan, 2024
该研究介绍了一个多模态数据集,其中包括雷达、相机和激光雷达,以提高自主驾驶汽车的稳健性和长程感知并训练 3D 物体检测模型,并在 GitHub 上提供数据。
Nov, 2022
该研究介绍了一种新的大规模、高质量、多样化的自动驾驶数据集,其中包含了各种城市和郊区地理环境中的 1150 个场景,数据标注为 2D 和 3D 框,而 2D 和 3D 检测和跟踪任务的基线也得到了提供。
Dec, 2019
本研究提出了一种名为 Hi-UCD 的大规模基准数据集,通过使用具有 0.1 米空间分辨率的航空影像和分别分为九个地表覆盖类别的语义标注数据,以获取地面物体变化方向,用于检测和分析精细化的城市变化。实验结果表明,Hi-UCD 是具有挑战性但有用的强大基准,可以加速未来的研究。
Nov, 2020
雷达在自动驾驶环境感知方面相较于广泛采用的摄像头和 LiDAR 具有更强的适应性。本文介绍了一个新颖的大规模多模态数据集,首次同时捕获了两种类型的 4D 雷达,为进一步研究有效的 4D 雷达感知算法提供了支持。
Oct, 2023
通过与自动驾驶公司 May Mobility 的合作,我们提出了 MARS 数据集,它统合了多智能体、多次遍历和多模态自动驾驶研究场景,能够促进自动驾驶车辆的感知、预测和规划能力的转变。
Jun, 2024
本文介绍了 nuTonomy 场景数据集,其中包含了自动驾驶车辆所有的传感器:6 个相机,5 个雷达和 1 个激光雷达,每个场景长达 20 秒,并标注了 23 个类别和 8 个属性的三维边界框。同时,定义了新的 3D 检测和跟踪指标,并提供了激光雷达和基于图像的检测和跟踪的基线。
Mar, 2019