从被高浓度杂质颗粒污染的地下恶劣环境中获取的多模态数据集,用于前沿探索
自动驾驶汽车在相机、激光雷达和雷达传感器的支持下进行环境导航。为解决相机和激光雷达在恶劣天气如雪、雨、雾中的表现问题,文章介绍了 SemanticSpray++ 数据集,其中包含了湿地表面情境下相机、激光雷达和雷达数据的标注信息,为不同感知方法在湿地表面条件下车辆行驶时的性能分析提供了综合性测试环境。文章还介绍了综合性的数据统计以及对多个基线方法在不同任务中的评估和性能分析。该数据集将在指定的 URL 上提供。
Jun, 2024
该研究提供了一个综合多传感器数据集,旨在挑战性室内外环境中进行 3D 地图制作。数据集包括红外相机、深度相机、LiDAR 和 4D 毫米波雷达的数据,提供了探索先进感知和制图技术的可能性。多种传感器数据的整合增强了在极端条件下(如雨、雪和不平整的道路表面)的感知能力。数据集还包括室内外以不同速度运行的交互式机器人数据,提供了逼真的背景环境。通过类似路线的 SLAM 比较,分析了不同复杂场景对各个传感器的影响。采用各种 SLAM 算法处理数据集,揭示了不同场景中算法性能的差异。总之,该数据集解决了特殊环境中数据稀缺的问题,促进了在极端条件下感知和制图算法的发展。利用包括红外、深度相机、LiDAR、4D 毫米波雷达和机器人交互的多传感器数据,该数据集推动了智能制图和感知能力的进步。我们的数据集可在此链接获取:https://example.com/dataset
Apr, 2024
雷达在自动驾驶环境感知方面相较于广泛采用的摄像头和 LiDAR 具有更强的适应性。本文介绍了一个新颖的大规模多模态数据集,首次同时捕获了两种类型的 4D 雷达,为进一步研究有效的 4D 雷达感知算法提供了支持。
Oct, 2023
该研究介绍了一个多模态数据集,其中包括雷达、相机和激光雷达,以提高自主驾驶汽车的稳健性和长程感知并训练 3D 物体检测模型,并在 GitHub 上提供数据。
Nov, 2022
过去十年中,虽然单一机器人感知取得了重大进展,但多机器人协同感知的研究仍未被广泛探索。本文提出了一个开创性的全面真实世界的多机器人协同感知数据集,用于推动这一领域的研究。我们的数据集利用了空中 - 地面机器人协同的未发掘潜力,具有不同的空间视角、互补的机器人移动性、覆盖范围和传感器模态。它提供了原始传感器输入、姿态估计和可选的高级感知注释,以适应各种研究兴趣。与现有主要设计用于同时定位和地图构建(SLAM)的数据集相比,我们的设置确保了多样化的传感器视角范围和足够的重叠以促进多机器人协同感知算法的研究。我们通过多个协同感知任务定性地证明了这个数据集的价值。我们相信这项工作将在多模态协同感知中解锁高级场景理解的潜在研究。
May, 2024
本文提出了一种多用途的多模态传感器航空数据集(AU-AIR), 旨在弥合计算机视觉和机器人学之间的差距,并通过多种类型的记录数据进行真实环境的移动物体检测训练和测试,包括自带计算机的无人机。
Jan, 2020
该研究介绍了第一个公开可用的多模态感知数据集,针对自主海洋导航中的水中障碍物,以增强自主水面车辆的情境感知。该数据集包括了不同环境条件下遇到的各种物体,并旨在通过提供多模态、带注释的、自我的感知数据集来填补海洋机器人学研究的空白,以进行物体检测和分类。我们还展示了该数据集框架的适用性,使用已经取得成功的基于深度学习的开源感知算法。我们期望我们的数据集将有助于海洋自主管道和海洋机器人技术的发展。请注意,这是我们正在进行的研究的一篇进行性论文,我们计划通过未来的出版物来完整发布。
Apr, 2024
在这篇论文中,我们介绍了一个新的数据集,NTU4DRadLM,它同时包含了 6 种传感器:4D 雷达、热像仪、IMU、3D 激光雷达、视觉相机和实时定位 RTK GPS,具体设计用于 SLAM 任务,并提供了经过精调的真实轨迹和故意设计的闭环,以综合评估三种类型的 SLAM 算法。
Sep, 2023
本文介绍使用 TartanAir 数据集进行机器人导航与多种传感器数据采集的相关实验,旨在使用基于大规模数据训练的学习方法,推动 Visual SLAM 算法在真实环境中的应用,并为其提供一种更具挑战性的新基准测试方法。
Mar, 2020