Sep, 2023

面向城市环境中的鲁棒机器人三维感知:UT 校园对象数据集

TL;DR我们介绍了 UT Campus Object Dataset(CODa),这是在德克萨斯大学奥斯汀分校采集的移动机器人自我中心感知数据集。我们的数据集包含 8.5 小时的多模态传感器数据:来自 128 通道 3D LiDAR 和两个 1.25MP RGB 相机的同步 3D 点云和立体 RGB 视频,帧率为 10fps;来自额外的 0.5MP 传感器的 RGB-D 视频,帧率为 7fps,并带有 40Hz 的 9-DOF IMU 传感器。我们提供了 58 分钟的地面真值注释,其中包含 130 万个含有 53 个语义类别的实例 ID 的 3D 边界框,以及 5000 帧的城市地形的 3D 语义注释和伪地面真值定位。使用 CODa,我们实证地表明:1)与现有数据集相比,使用 CODa 进行训练的城市环境下的 3D 对象检测性能显著提高,即使采用最先进的领域自适应方法;2)传感器特定的微调改善了 3D 对象检测准确性,3)在 CODa 上进行预训练相比于在 AV 数据集上进行预训练,可以提高跨数据集城市环境下的 3D 对象检测性能。使用我们的数据集和注释,我们发布了使用已建立的度量标准进行 3D 对象检测和 3D 语义分割的基准。在未来,CODa 基准将包括其他任务,如无监督的对象发现和重新识别。我们在 Texas Data Repository 上公开发布了 CODa,还提供了预训练模型、数据集开发包和交互式数据集查看器。我们期望 CODa 能成为在城市环境中自我中心的 3D 感知和自主导航规划方面的研究的宝贵数据集。