VALERIE22 - 城市环境的高保真度、丰富元数据注释的数据集
本研究提出了一种用已有数据集进行数据注释以生成多模态数据的方法,以优化智能车辆系统中的数据模拟,实现高保真模拟并增加样本多样性并成功改善了语义分割的实验效果。
Aug, 2022
本研究提供了一份可扩展性强、真实感更强、规模更大、变异性更强、且在训练和评估深度学习方法、基准测试同时定位和映射(SLAM)方面有更广泛用途的数据集,以支持计算机视觉领域的研究。我们使用数百万个专业室内设计和制作级家具资产进行高分辨率和高帧率视频序列渲染,并支持各种摄像头类型以及惯性测量。同时,我们展示了稀疏和密集 SLAM 算法的基准测试结果。
Sep, 2018
为解决现有数据集不能很好地捕捉真实城市场景的复杂性,我们引入了 Cityscapes—— 一个基准套件和大规模数据集,用于像素级和实例级语义标注的方法的训练和测试。
Apr, 2016
本研究提供了一种基于 CARLA 模拟器的 SELMA 综合数据集,其中包含来自 24 个不同的传感器(包括 RGB,深度,语义相机和 LiDAR)的 30K 个以上独特的航点,在 27 种不同的大气和白天条件下,共计超过 20M 个样本,可用于训练标准和多模态深度学习架构以实现自动驾驶系统中的准确场景理解。
Apr, 2022
使用逼真的渲染技术创建的 Synscapes 合成数据集在街景分割的训练和验证方面展示了最先进的结果,并研究了网络在合成数据上推断时的行为,并分析了现有分割和检测模型,为计算机视觉系统的分析提供了细微的信息。
Oct, 2018
本文提出了第一个大规模的开放式模拟数据集,其中包含超过 70 个有趣的场景,11464 帧和 232913 标注的三维车辆边界框,以及一个用于评估多种信息融合策略的综合基准测试。同时,作者还提议了一种新的注意力中间融合管道,以聚合来自多个连接车辆的信息,证明该管道即使在大压缩率下也能实现优秀的性能。
Sep, 2021
为了解决现有数据集图片数量有限的问题,本文提出了一个包含图像和三维数据的多模态综合数据集,该数据集包含 28 类的像素级标注,并可用于深度网络架构的有效训练,结果表明其在合成数据和实际数据的适应方面具有良好的前景。
Aug, 2023
最近,事件驱动视觉传感器受到了自动驾驶应用的关注,因为传统的 RGB 相机在处理具有挑战性的动态条件时存在局限性。然而,现实世界和合成的事件驱动视觉数据集的可用性仍然有限。为了填补这一空白,我们提出了 SEVD,这是一种首个使用 CARLA 模拟器中的多个动态视觉传感器的多视点自我和固定感知合成的事件驱动数据集。数据序列记录在不同的光照条件(中午、夜间、黄昏)和天气条件(晴朗、多云、潮湿、多雨、雾霾)下进行,具有域漂移(离散和连续)。SEVD 跨越城市、郊区、乡村和高速公路场景,涵盖了各类物体(汽车、卡车、货车、自行车、摩托车和行人)。除了事件数据,SEVD 还包括 RGB 图像、深度图、光流、语义和实例分割,有助于全面了解场景。此外,我们使用最先进的事件驱动方法(RED,RVT)和基于帧的方法(YOLOv8)评估数据集的交通参与者检测任务,并提供基准标准进行评估。此外,我们进行实验评估合成事件驱动数据集的泛化能力。数据集可在此 https URL 获得。
Apr, 2024
Argoverse 2 是一套适用于自动驾驶领域的三个数据集,包含多模态数据,如高分辨率图像,种类繁多的 3D 标注,未标注的 lidar 点云等,为 3D 感知模型的训练和评估提供了充足的数据和场景,并提供了自我监督和云点预测等新的数据学习任务。
Jan, 2023