T-LESS: 一个用于无纹理物体 6D 姿态估计的 RGB-D 数据集
本文介绍了一个新的数据集和基准测试标准,主要针对从 3D 模型(有纹理和无纹理)训练,可扩展性,遮挡,光照和物体外观的变化等方面测试 6D 姿态估计算法的性能,并使用最先进的 DPOD 检测器来设置基线。
Apr, 2019
机器学习在物体检测和机器抓取的 6D 姿态估计方面取得了巨大进展,然而,由于视觉线索较少和卷积神经网络对纹理的偏好,无纹理和金属物体仍然带来了显著挑战。为了解决这个问题,我们提出了一种注重学习 CAD 模型并强调物体形状特征的无纹理方法。通过在训练数据渲染过程中对纹理进行随机化处理,以使焦点集中在学习物体形状特征上,消除了在生成训练数据时对真实物体实例或最终外观的需求。我们使用了专门为工业机器人设置并特色为无纹理和金属物体的 TLESS 和 ITODD 数据集进行评估。无纹理性还增强了对图像扰动(如成像噪声、运动模糊和亮度变化)的稳健性,这在机器人应用中很常见。代码和数据集公开在 github.com/hoenigpeter/randomized_texturing。
Feb, 2024
在计算机视觉中,重建无纹理表面面临着独特的挑战,主要是由于缺乏满足在没有纹理信息的情况下深度和法线估计的细微需求的专门数据集。我们介绍了一种新颖的大规模数据集 “Shape2.5D”,旨在填补这一空白。该数据集包含了 364k 个帧,涵盖了 2635 个 3D 模型和 48 个独特对象,为无纹理物体重建提供了深度和表面法线图。所提出的数据集包括使用 3D 建模软件渲染的合成图像,以模拟各种照明条件和观察角度。它还包括一个包含 4672 个由深度相机捕获的真实世界子集。我们使用修改过的编码器 - 解码器网络进行的全面基准测试展示了该数据集支持从 RGB 图像鲁棒地估计深度和法线的算法开发的能力。我们的开源数据生成流水线使得该数据集可以在未来的研究中进行扩展和适应。该数据集可在 https://github.com/saifkhichi96/Shape25D 公开获取。
Jun, 2024
应用图像处理技术创建了由边缘特征、特征组合和增强的 RGB 图像构成的 15 个数据集,在这些数据集上训练的四个分类器中,以 RGB 图像和三种边缘特征的组合获得的数据集表现最佳,其中 HED 边缘的性能相对于 Canny 或 Prewitt 等其他边缘检测器更好。
Mar, 2024
本文介绍了 TRansPose 多光谱数据集,该数据集包括 99 种透明物体,其中 43 种家用物品、27 种可回收垃圾、29 种化学实验室用品和 12 种非透明物体,可以提供更好的透明物体视觉识别和形状信息。
Jul, 2023
本研究针对透明物体的属性,提出了一种大规模真实世界 RGB-Depth 透明物体数据集,命名为 ClearPose,用于定量评价分割、场景级深度完成和物体居中姿态估计的任务,该数据集包含超过 350K 个标记的真实世界 RGB-Depth 帧和 5M 个实例注释涵盖 63 种家庭物品等。
Mar, 2022
本文探讨了一种新的开放式少样本目标 6D 姿态估计问题,并提出了一种密集的 RGBD 原型匹配框架,加上深度外观和几何相关性的先验,以及一种在线纹理融合方法,为解决这个问题建立了基准。
Mar, 2022
我们介绍了一个大规模立体 RGB 图像物体姿态估计数据集 StereOBJ-1M,为了解决透明、半透明、反射等复杂场景下的姿态估计问题,并通过一种新颖的多视图注释方法有效地收集了足够规模的数据。该数据集包含超过 393K 帧、超过 1.5M 注释的 18 个物体的全标注 6D 姿态,并在 11 个不同环境中记录的 182 个场景中展示。我们将两种最先进的姿态估计框架作为基线,提出了一种新颖的基于关键点预测的物体级姿态优化方法。
Sep, 2021
提出适用于单个 RGB-D 输入图像的刚体物体 6D 姿态估计基准,并通过姿态误差函数对姿态歧义进行处理,在 15 种不同方法的全面评估中发现,基于点对特征的方法目前表现最佳。
Aug, 2018
本文介绍了 ROBI(Reflective Objects in BIns)数据集,用于 6D 对象姿态估计和机器人垃圾桶拾取场景中的多视角深度融合。数据集包括 63 个具有高度反射物体的场景,使用两个主动立体相机捕获图像和深度地图进行标注,可评估姿态估计和深度融合算法性能。
May, 2021