用于物体实例检测的多视角 RGB-D 数据集
我们介绍了一个名为 WildRGB-D 的新型 RGB-D 物体数据集,该数据集以自然环境中的实际采集为基础,与其他数据集相比,它的直接深度采集使得 3D 标注和下游应用更加准确和广泛。
Jan, 2024
本文介绍了一种包含近千个三维对象模型及超过 84 万个现实世界的 RGB 和深度图像数据集,旨在填补现有研究中缺乏的三维多视图重建的真实数据基准。该数据集通过半自动方式实现相机位置与物体姿态的精准标注,为形状重建、物体姿态估计、形状检索等 3D 应用提供了可能。数据集已开放,包含注释工具和评估基准源代码。
Mar, 2022
该论文使用真实影像,聚焦日常室内环境下机器人视觉任务的模拟,构建新的公共数据集。该数据集可用于机器人视觉任务中的物体检测、主动视觉模拟和基于深度学习的强化学习下的下一步动作预测。在使用数据集的过程中,作者发现现有物体检测研究最大的问题是机器人视角对物体尺度,遮挡和方向的影响。
Feb, 2017
本研究关注的是 RGB-D 物体跟踪,并通过发布新的 RGBD1K 数据集和利用此数据集中的 transformer-based RGB-D 跟踪器 (SPT) 作为我们的基线来展示其训练的益处和可潜力以提高 RGB-D 跟踪的性能。
Aug, 2022
本文介绍了一个新的数据集和基准测试标准,主要针对从 3D 模型(有纹理和无纹理)训练,可扩展性,遮挡,光照和物体外观的变化等方面测试 6D 姿态估计算法的性能,并使用最先进的 DPOD 检测器来设置基线。
Apr, 2019
本论文提供了一个丰富的数据集,针对解决仓库拣选和放置任务时出现的挑战,集中探讨了基于 RGBD 的三维物体姿态估计的状态最新发展。该数据集包括成千上万张图片和相应物体的基准数据,在不同的位置和杂乱程度的条件下使用。以一个近期发展的基于 RGBD 的姿态估计算法为例,进行了评估,并应用各种修改和改进来提高检测的准确性,以提高仓库拾取和放置领域的性能。
Sep, 2015
本文介绍了 ROBI(Reflective Objects in BIns)数据集,用于 6D 对象姿态估计和机器人垃圾桶拾取场景中的多视角深度融合。数据集包括 63 个具有高度反射物体的场景,使用两个主动立体相机捕获图像和深度地图进行标注,可评估姿态估计和深度融合算法性能。
May, 2021
本文介绍 Matterport3D 数据集,包含 10,800 个全景视图,通过 RGB-D 图片提供了 90 个建筑尺度的场景的表面重建、相机姿态和 2D、3D 语义分割注释等,可用于多种计算机视觉任务,如关键点匹配、视图重叠预测、颜色预测等。
Sep, 2017
SceneNet RGB-D 提供了室内场景轨迹的大规模真实渲染,为场景理解和几何计算机视觉问题提供像素级完美的标签数据,以及适用于从头开始使用 RGB-D 输入的数据驱动的计算机视觉技术的预训练数据集,并且也提供了探索 3D 场景标注任务的基础。
Dec, 2016
本文探讨了利用深度学习在 3D 物体检测中,针对使用 RGB-D 数据在室内和室外场景下进行点云识别所面临的挑战以及如何提高效率。通过利用成熟的 2D 物体检测器和先进的 3D 深度学习来提高区域建议与对象本地化的精度,以取得高回收甚至小目标检测的良好性能。在 KITTI 和 SUN RGB-D 3D 检测基准上进行了评估,相比现有技术取得了显著的大幅度升级,并具有实时性能。
Nov, 2017