6D 物体位姿估计结合零样本学习
通过使用预训练的 Vision Transformers(ViT)提取的视觉描述符,我们引入了 ZS6D 方法,用于零样本新目标 6D 姿态估计,该方法在众多最新的姿态估计方法上表现卓越,无需进行特定任务的微调。我们在 LMO、YCBV 和 TLESS 等三个数据集上进行了实验,并与两种方法进行了比较,结果在所有三个数据集上相较于其中一种方法有显著提升,在两个数据集上相较于另一种方法有提升。
Sep, 2023
本文介绍一个新的零样本视角估计管道,主要基于 3D 模型的零样本实例分割和零样本姿态估计。实验结果表明,该方法在速度和计算成本方面优于当前零样本状态的最佳方法。
May, 2023
本文探讨了一种新的开放式少样本目标 6D 姿态估计问题,并提出了一种密集的 RGBD 原型匹配框架,加上深度外观和几何相关性的先验,以及一种在线纹理融合方法,为解决这个问题建立了基准。
Mar, 2022
本文提出了一种基于 three-view 系统的 PoseMatcher 模型来进行精确的无模型一次性物体位姿估计,同时引入了 IO-Layer 进行有效信息的交叉注意力,还设计了对象点云下的基于数字图像处理的目标选取和定位算法。实验结果证明该方法在 Linemod 和 YCB-V 数据集上表现优异。
Apr, 2023
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
本研究提出了一种用于零样本目标位姿估计的方法,该方法采用假设产生和评分框架,并专注于学习适用于训练中未使用的物体的评分函数,通过对无序点差异的函数对假设进行评级以实现零样本泛化,实验结果表明,该方法在具有纹理和无纹理物体的混乱场景中显著优于以前的方法。
Apr, 2021
本文介绍了一种基于深度学习的 6D 姿态估计架构,能够直接从对应点回归 6D 姿态,并提出了单阶段 6D 姿态估计框架,能够在准确性和速度方面显著优于现有的双阶段框架。
Nov, 2019
本文介绍了一种新的基于深度图像的单镜头 6D 物体姿态估计方法,使用全卷积神经网络实现,通过将三维输入数据在空间上离散化,将姿态估计视为一个回归任务来处理,在所得到的体元上局部求解。该方法是端对端优化的,不需要手动标注 6D 姿态的真实世界数据,依靠完全使用合成数据进行训练的方式得到了良好的性能。实验验证了该方法在公共基准数据集上的优异表现。
Apr, 2020
本文提出了一种名为 OnePose 的新方法,可以在没有 CAD 模型的情况下对任意类别的物体进行物体姿态估计,利用视觉定位和图形注意力网络结合进行 2D 和 3D 特征匹配,结合基于特征的姿势跟踪器,可以实现对日常家用物品 6D 姿态的实时稳定检测和跟踪。
May, 2022
该论文提出了一种单次操作的方法,可以在不需要多个阶段或检查多个假设的同时,在 RGB 图像中检测对象并预测其 6D 姿态。通过采用新的 CNN 架构和 PnP 算法,该方法可以以 50fps 的速度在 Titan X GPU 上运行,比其他最近的 CNN 方法具有更高的准确性和更适合实时处理。
Nov, 2017