该研究旨在开发 KITTI-360 数据集,以促进计算机视觉、图形学和机器人学领域的研究,并为移动感知相关的多项任务提供基准和基线。
Sep, 2021
本文提出了一个基于汽车激光雷达的大型数据集,用于推动基于激光的语义分割研究。作者提出了三项基于该数据集的基准任务,包括使用单个扫描和使用多个过去扫描的语义分割,以及需要预测未来语义场景的语义场景预测。作者提供了基线实验,并表明需要更复杂的模型才能有效处理这些任务。该数据集不仅为更先进的方法的开发打开了大门,而且还提供了丰富的数据来调查新的研究方向。
Apr, 2019
确保自动驾驶汽车在恶劣天气下的安全可靠运行仍然是一个重大挑战,为此我们开发了一个全面的数据集,其中包括在真实测试场地和实验室中进行相同测试场景的传感器数据。该数据集包括在恶劣的天气条件下(雨天、夜间和雪天)记录的摄像头、雷达、激光雷达、惯性测量单元(IMU)和 GPS 数据。该数据集是一个宝贵的资源,为自动驾驶车辆领域的研究人员提供了在恶劣天气条件下测试和改进算法以及探索仿真与现实之间差距的机会。
Oct, 2023
本文介绍了一份在罗马收集的视觉和感知研究数据集,包括 RGB 数据、3D 点云、IMU 和 GPS 数据,并引入了一个新的基准用于视觉里程计和 SLAM,以推进自主机器人和计算机视觉的研究。
Apr, 2024
本文提出了第一个大规模的开放式模拟数据集,其中包含超过 70 个有趣的场景,11464 帧和 232913 标注的三维车辆边界框,以及一个用于评估多种信息融合策略的综合基准测试。同时,作者还提议了一种新的注意力中间融合管道,以聚合来自多个连接车辆的信息,证明该管道即使在大压缩率下也能实现优秀的性能。
为了实现自主驾驶高安全性要求下的鲁棒性,本文提出了一种新数据集的收集方法,覆盖多种天气、交通和场景,包含图像和点云数据以及高精度 GPS/INS 数据,并在此基础上分析了自动驾驶的三个关键问题的性能表现。
Aug, 2022
本文介绍了 V2V4Real 多模态数据集和近期合作感知算法在三项任务上的全面基准测试。通过两辆车行驶,由多模态传感器收集数据,该数据集包括 20K LiDAR 帧、40K RGB 帧、240K 5 类三维边界框的标注和覆盖所有行驶路线的 HDMaps。该数据集对协作 3D 物体检测、协作 3D 物体跟踪和 Sim2Real 领域自适应合作感知等三个任务提出了需要解决的问题。
Mar, 2023
本文扩展了 SemanticKITTI 数据集,提供了激光雷达数据的语义标注和时间上连续的实例信息,以及两个结合了最新的 LiDAR 语义分割方法和目标检测器的强基线,希望能为 LiDAR 的全景分割算法的开发提供帮助。
Mar, 2020
该研究提出了一个基于虚拟世界的视觉感知基准测试套件,通过对超过 250,000 个高分辨率视频帧的低层次和高层次的视觉任务进行全面地注释,并针对多个任务分析了最先进方法的表现,提供参考基线和突出未来研究的挑战。
Sep, 2017
本研究关注的是 RGB-D 物体跟踪,并通过发布新的 RGBD1K 数据集和利用此数据集中的 transformer-based RGB-D 跟踪器 (SPT) 作为我们的基线来展示其训练的益处和可潜力以提高 RGB-D 跟踪的性能。