KITTI-360:一种用于城市场景 2D 和 3D 理解的新型数据集和基准
本文提出了一个基于汽车激光雷达的大型数据集,用于推动基于激光的语义分割研究。作者提出了三项基于该数据集的基准任务,包括使用单个扫描和使用多个过去扫描的语义分割,以及需要预测未来语义场景的语义场景预测。作者提供了基线实验,并表明需要更复杂的模型才能有效处理这些任务。该数据集不仅为更先进的方法的开发打开了大门,而且还提供了丰富的数据来调查新的研究方向。
Apr, 2019
该研究提出一种基于单目 RGB 图像的三维车辆检测方法,为此创建了 Cityscapes 3D 数据集,包含了所有类型车辆的三维标注信息,使得与基于 lidar 的方法相比具有更高效率和更大范围的标注信息。此外,研究将 2D 实例分割与 3D 包围盒成对提供,以便多任务学习。这对自动驾驶技术有着很重要的意义。
Jun, 2020
本文介绍了一份新的挑战性 A*3D 数据集,以满足自动驾驶研究任务在高度多样化的环境中的需求,并采用基于 RGB 图像和 LiDAR 数据的丰富多样的场景、时间和天气情况,其中包括重度遮挡和大量的夜间框架,共包含 39K 帧、7 个类别和 230K 个 3D 对象注释。对 A*3D 数据集进行广泛的 3D 对象检测基准评估,对高密度、白天 / 黑夜等各种属性给出了有趣的见解。
Sep, 2019
介绍了 Virtual KITTI 数据集的更新版本,包含来自 KITTI 跟踪基准的 5 个序列克隆。数据集提供了不同变体的这些序列,如修改的天气条件 (如雾、雨) 或修改的相机配置 (如旋转 15 度)。展示了数据集的一些实验功能,使用自动驾驶领域的最新算法运行多个相关实验。
Jan, 2020
本文介绍了一份在罗马收集的视觉和感知研究数据集,包括 RGB 数据、3D 点云、IMU 和 GPS 数据,并引入了一个新的基准用于视觉里程计和 SLAM,以推进自主机器人和计算机视觉的研究。
Apr, 2024
本文介绍了 nuTonomy 场景数据集,其中包含了自动驾驶车辆所有的传感器:6 个相机,5 个雷达和 1 个激光雷达,每个场景长达 20 秒,并标注了 23 个类别和 8 个属性的三维边界框。同时,定义了新的 3D 检测和跟踪指标,并提供了激光雷达和基于图像的检测和跟踪的基线。
Mar, 2019
通过引入 SSCBench,这是一个综合基准数据集,其中包括广泛使用的汽车数据集,本文提出了一种方法来解决自动驾驶场景中 SSC 发展受限的问题。我们对目前的算法进行了定量和定性的评估,并承诺不断地将新颖的汽车数据集和 SSC 算法纳入我们的资源中,以推动此领域的进一步发展。
Jun, 2023
本研究提供一个实际的室内 360 度全景物体检测数据集(360-Indoor),包含 37 个操作室内场景中常见的物体类别,每张图像平均 27 个包围盒。该数据集是首个用于验证 360 度图像上物体检测和识别的基准数据集。
Oct, 2019
本文扩展了 SemanticKITTI 数据集,提供了激光雷达数据的语义标注和时间上连续的实例信息,以及两个结合了最新的 LiDAR 语义分割方法和目标检测器的强基线,希望能为 LiDAR 的全景分割算法的开发提供帮助。
Mar, 2020
本研究探讨了结合实际图片和虚拟对象的增量学习方法,通过少量用户交互的方式,将虚拟对象添加到实际图片中,从而提高物体实例分割模型的性能。通过在 KITTI 2015 和 Cityscapes 数据集上的实验结果表明,增量学习方法可以显著提高实例分割和物体检测模型的泛化能力。
Aug, 2017