DIML/CVL RGB-D 数据集:自然室内外场景的 2M 个 RGB-D 图像
本文介绍 Matterport3D 数据集,包含 10,800 个全景视图,通过 RGB-D 图片提供了 90 个建筑尺度的场景的表面重建、相机姿态和 2D、3D 语义分割注释等,可用于多种计算机视觉任务,如关键点匹配、视图重叠预测、颜色预测等。
Sep, 2017
该研究提供了一个综合多传感器数据集,旨在挑战性室内外环境中进行 3D 地图制作。数据集包括红外相机、深度相机、LiDAR 和 4D 毫米波雷达的数据,提供了探索先进感知和制图技术的可能性。多种传感器数据的整合增强了在极端条件下(如雨、雪和不平整的道路表面)的感知能力。数据集还包括室内外以不同速度运行的交互式机器人数据,提供了逼真的背景环境。通过类似路线的 SLAM 比较,分析了不同复杂场景对各个传感器的影响。采用各种 SLAM 算法处理数据集,揭示了不同场景中算法性能的差异。总之,该数据集解决了特殊环境中数据稀缺的问题,促进了在极端条件下感知和制图算法的发展。利用包括红外、深度相机、LiDAR、4D 毫米波雷达和机器人交互的多传感器数据,该数据集推动了智能制图和感知能力的进步。我们的数据集可在此链接获取:https://example.com/dataset
Apr, 2024
DIODE 数据集包含数千个具有精确、密集、远距离深度测量的不同高分辨率彩色图像,是第一个包含使用单个传感器套件获得的室内和室外场景的 RGBD 图像的公开数据集。
Aug, 2019
该文介绍了一个大规模室内空间数据集,其中包含 2D、2.5D 和 3D 接口的多种相互注册的模态,并具有实例级别的语义和几何注释。该数据集使得可以开发联合和跨模态学习模型,以及可能利用大规模室内空间中存在的规律性的无监督方法。
Feb, 2017
SceneNet RGB-D 提供了室内场景轨迹的大规模真实渲染,为场景理解和几何计算机视觉问题提供像素级完美的标签数据,以及适用于从头开始使用 RGB-D 输入的数据驱动的计算机视觉技术的预训练数据集,并且也提供了探索 3D 场景标注任务的基础。
Dec, 2016
该论文使用真实影像,聚焦日常室内环境下机器人视觉任务的模拟,构建新的公共数据集。该数据集可用于机器人视觉任务中的物体检测、主动视觉模拟和基于深度学习的强化学习下的下一步动作预测。在使用数据集的过程中,作者发现现有物体检测研究最大的问题是机器人视角对物体尺度,遮挡和方向的影响。
Feb, 2017
本文介绍了一种包含近千个三维对象模型及超过 84 万个现实世界的 RGB 和深度图像数据集,旨在填补现有研究中缺乏的三维多视图重建的真实数据基准。该数据集通过半自动方式实现相机位置与物体姿态的精准标注,为形状重建、物体姿态估计、形状检索等 3D 应用提供了可能。数据集已开放,包含注释工具和评估基准源代码。
Mar, 2022
介绍了一个新的多视角 RGB-D 数据集,用于目标检测和识别,包括多个识别基准和 AlexNet 模型,证明了该数据集比 Washington RGB-D Scenes 数据集更具挑战性。
Sep, 2016
本研究提供了一份可扩展性强、真实感更强、规模更大、变异性更强、且在训练和评估深度学习方法、基准测试同时定位和映射(SLAM)方面有更广泛用途的数据集,以支持计算机视觉领域的研究。我们使用数百万个专业室内设计和制作级家具资产进行高分辨率和高帧率视频序列渲染,并支持各种摄像头类型以及惯性测量。同时,我们展示了稀疏和密集 SLAM 算法的基准测试结果。
Sep, 2018
本研究关注的是 RGB-D 物体跟踪,并通过发布新的 RGBD1K 数据集和利用此数据集中的 transformer-based RGB-D 跟踪器 (SPT) 作为我们的基线来展示其训练的益处和可潜力以提高 RGB-D 跟踪的性能。
Aug, 2022