MV6D: 使用深度点投票网络的 RGB-D 框架多视角 6D 位姿估计
本文提出了 DenseFusion 框架,使用异构网络结构从 RGB-D 图像中估计已知物体的 6D 位姿,并通过端对端迭代位姿细化进一步提高了姿态估计的精度和实时性。实验结果表明,我们的方法在 YCB-Video 和 LineMOD 数据集上优于现有方法,并在实际机器人应用中实现了对物体的抓取和操作。
Jan, 2019
利用单个 RGB-D 图像,我们引入了一种新颖的方法来计算物体的 6DoF 姿态。通过密集对应,我们回归每个可见像素的物体坐标,从而有效降低输出空间并取得出色的性能,在 6D 姿态估计中胜过大多数先前的方法,特别是在遮挡场景中具有显著改进的优势。
May, 2024
该论文介绍了一种新的对物体进行 6D 姿态估计的方法,其中使用了多视角深度网络、预定义关键点、实例语义分割等技术,特别考虑了对称物体的问题,相对于现有技术有很大的提升。
Jul, 2023
本文提出了一种基于数据驱动的方法,使用关键点检测和 Hough 投票网络,实现了从单个 RGBD 图像稳健地估算 6DoF 物体姿态,并在多个基准测试中表现出色。
Nov, 2019
本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
本文提出了一个称为 OVE6D 的通用框架,用于基于模型的 6D 物体姿态估计,并使用纯合成数据来训练模型。通过将 6D 姿态分解为视点、绕摄像机光轴的平面旋转和平移,并引入新颖的轻量级模块进行级联估计,我们实现了对新实际世界的对象泛化而不需要微调。我们的网络包含少于 4M 个参数,但在没有任何特定数据集的训练下,在具有挑战性的 T-LESS 和 Occluded LINEMOD 数据集上表现出优秀的性能。我们还表明,OVE6D 的表现优于一些专门针对具有现实世界训练数据的单个对象或数据集进行训练的当代深度学习姿势估计方法。我们将公开实现和预训练模型。
Mar, 2022
提出了一种基于多视角视野的实时视觉系统,可以从单个 RGB-D 视角提出三维物体姿态建议,并且根据多个视角的姿态估计和非参数占用信息积累这些姿态估计,从而对接触的多个已知对象进行一致的、不相交的姿态估计。应用于实时机器人应用程序中,只使用机载 RGB-D 视觉,机械臂可以精确而有序地拆卸复杂的物体堆放,展示了其准确性和鲁棒性。
Apr, 2020
本文探讨了一种新的开放式少样本目标 6D 姿态估计问题,并提出了一种密集的 RGBD 原型匹配框架,加上深度外观和几何相关性的先验,以及一种在线纹理融合方法,为解决这个问题建立了基准。
Mar, 2022
本文介绍了一种通用的无模型 6 自由度物体姿势估计模型 ——Gen6D。该模型不需要高质量物体模型,不需要深度图或物体遮蔽物,在任何环境下只需要物体的几张照片便可以准确预测物体的姿态。在实验中,Gen6D 在两个无模型数据集上达到了最新成果,以及在 LINEMOD 数据集上与特定实例的姿势估计相比展现出一定的竞争力。
Apr, 2022
本研究提出一种名为 Cas6D 的级联框架,该框架对六自由度物体姿态进行少样本学习的估计,使用自监督预训练 ViT 积累鲁棒特征、用特征金字塔进一步精炼姿态和借助离散化姿态搜索范围和渐进式缩小姿态搜索范围的特性克服了 6DoF 姿态估计中的一些常见失败模式。该研究表明,相较于 OnePose ++ 和 Gen6D,在 32-shot 设定下,Cas6D 在 LINEMOD 和 GenMOP 数据集上的定位精度分别提高了 9.2%和 3.8%(Proj-5)。
Jun, 2023