TransPose:用于透明物体的大规模多光谱数据集
本研究针对透明物体的属性,提出了一种大规模真实世界 RGB-Depth 透明物体数据集,命名为 ClearPose,用于定量评价分割、场景级深度完成和物体居中姿态估计的任务,该数据集包含超过 350K 个标记的真实世界 RGB-Depth 帧和 5M 个实例注释涵盖 63 种家庭物品等。
Mar, 2022
本论文提出了一种名为 MVTrans 的新型多视点方法,采用多种感知能力,包括深度估计、分割和姿态估计,可用于透明物体检测,并建立了一个逼真的数据集合成管道 Syn-TODD 用于网络训练。
Feb, 2023
本研究提供了一种基于深度学习网络的方法,针对普通深度传感器获取透明物体深度信息的难题,构建了一个大规模真实场景数据集,同时提出了一种深度完成网络用于输出精度更高的透明物体深度信息,并且该方法能够成功地应用于机器人对透明物体的抓取。
Feb, 2022
通过建立一个拥有 2,400 张高质量 LWIR(热力红外)图像的独特 RGB - 热力几乎配对和注释的 2D 动作数据集,该研究论文介绍了一个有助于遮挡和其他挑战情景中动作估计的数据集,并对数据集上的先进动作估计方法进行了基准测试,展示了该数据集在促进动作估计方法发展中的潜力。
Apr, 2024
我们介绍了一个大规模立体 RGB 图像物体姿态估计数据集 StereOBJ-1M,为了解决透明、半透明、反射等复杂场景下的姿态估计问题,并通过一种新颖的多视图注释方法有效地收集了足够规模的数据。该数据集包含超过 393K 帧、超过 1.5M 注释的 18 个物体的全标注 6D 姿态,并在 11 个不同环境中记录的 182 个场景中展示。我们将两种最先进的姿态估计框架作为基线,提出了一种新颖的基于关键点预测的物体级姿态优化方法。
Sep, 2021
本研究介绍了 T-LESS 数据集,用于计算纹理少的刚性物体的 6D 位姿,该数据集包括测试和训练图像,并提供两种类型的 3D 模型,同时揭示了该领域面临的挑战 - 尤其是在存在显著遮挡的情况下.
Jan, 2017
该文提出了一个名为 VT5000 的新 RGBT 图像数据集,包括 5000 个具有地面实况标注的空间对齐的 RGBT 图像对。 该文介绍了一种基于多级特征和注意机制的强大基线方法,用于准确的 RGBT 显著目标检测,并在 VT5000 数据集和其他两个公共数据集上优于现有技术水平。
Jul, 2020
该论文提出了一种基于双目视觉输入的深度神经网络,称为 KeyPose,并使用该网络从 RGB 相机标记的三维关键点预测物体姿势,即使在透明物体的情况下也能取得比现有方法更好的 3D 姿态估计表现。
Dec, 2019
本文介绍了一个新的数据集和基准测试标准,主要针对从 3D 模型(有纹理和无纹理)训练,可扩展性,遮挡,光照和物体外观的变化等方面测试 6D 姿态估计算法的性能,并使用最先进的 DPOD 检测器来设置基线。
Apr, 2019
本文介绍了 ROBI(Reflective Objects in BIns)数据集,用于 6D 对象姿态估计和机器人垃圾桶拾取场景中的多视角深度融合。数据集包括 63 个具有高度反射物体的场景,使用两个主动立体相机捕获图像和深度地图进行标注,可评估姿态估计和深度融合算法性能。
May, 2021