FS6D: 对新物体进行少样本 6D 姿态估计
本研究提出一种名为 Cas6D 的级联框架,该框架对六自由度物体姿态进行少样本学习的估计,使用自监督预训练 ViT 积累鲁棒特征、用特征金字塔进一步精炼姿态和借助离散化姿态搜索范围和渐进式缩小姿态搜索范围的特性克服了 6DoF 姿态估计中的一些常见失败模式。该研究表明,相较于 OnePose ++ 和 Gen6D,在 32-shot 设定下,Cas6D 在 LINEMOD 和 GenMOP 数据集上的定位精度分别提高了 9.2%和 3.8%(Proj-5)。
Jun, 2023
通过使用自适应分割模块并仅使用少量混乱的参考图像,我们提出了一种少样本姿态估计(FSPE)方法 SA6D,它能够对新的目标对象进行准确预测并构建目标对象的点云模型。与现有方法不同,SA6D 不需要以物体为中心的参考图像或任何其他物体信息,使其成为一个更具通用性和可伸缩性的解决方案,并在真实世界的台面物体数据集上进行了评估,证明了在带有遮挡的混乱环境中,SA6D 优于现有的 FSPE 方法,并且所需的参考图像较少。
Aug, 2023
提出了一种名为 MV6D 的多视角 6D 姿态估计方法,该方法使用多个视角的 RGB-D 图像,通过 DenseFusion 层融合每个视角的图像,可以精确预测杂乱场景中所有对象的 6D 姿态.
Aug, 2022
使用无监督学习的方法进行单眼 RGB 数据下的 6D 物体位姿估计,作者训练了一个神经网络模型,通过真实 RGB-D 数据的自监督模式来提高模型的性能表现,并证明了该方法能够显著地优化模型的性能,超过了其他使用合成数据或领域适应技术的方法。
Apr, 2020
通过使用预训练的 Vision Transformers(ViT)提取的视觉描述符,我们引入了 ZS6D 方法,用于零样本新目标 6D 姿态估计,该方法在众多最新的姿态估计方法上表现卓越,无需进行特定任务的微调。我们在 LMO、YCBV 和 TLESS 等三个数据集上进行了实验,并与两种方法进行了比较,结果在所有三个数据集上相较于其中一种方法有显著提升,在两个数据集上相较于另一种方法有提升。
Sep, 2023
使用 Wild6D 数据集,采用半监督学习,通过自由的渲染方法与真实数据的轮廓匹配目标函数得到的 Rendering for Pose estimation network RePoNet 模型,在无需真实数据 3D 标注的情况下,能更好地解决类别级别的 6D 对象位姿估计问题。
Jun, 2022
本文介绍了一种新的基于深度图像的单镜头 6D 物体姿态估计方法,使用全卷积神经网络实现,通过将三维输入数据在空间上离散化,将姿态估计视为一个回归任务来处理,在所得到的体元上局部求解。该方法是端对端优化的,不需要手动标注 6D 姿态的真实世界数据,依靠完全使用合成数据进行训练的方式得到了良好的性能。实验验证了该方法在公共基准数据集上的优异表现。
Apr, 2020
本文介绍了一种通用的无模型 6 自由度物体姿势估计模型 ——Gen6D。该模型不需要高质量物体模型,不需要深度图或物体遮蔽物,在任何环境下只需要物体的几张照片便可以准确预测物体的姿态。在实验中,Gen6D 在两个无模型数据集上达到了最新成果,以及在 LINEMOD 数据集上与特定实例的姿势估计相比展现出一定的竞争力。
Apr, 2022
本文提出了 DenseFusion 框架,使用异构网络结构从 RGB-D 图像中估计已知物体的 6D 位姿,并通过端对端迭代位姿细化进一步提高了姿态估计的精度和实时性。实验结果表明,我们的方法在 YCB-Video 和 LineMOD 数据集上优于现有方法,并在实际机器人应用中实现了对物体的抓取和操作。
Jan, 2019
本文提出了一种新的方法,使用卷积网络 (ConvNet) 预测语义关键点结合可变形形状模型,从单张 RGB 图像中估计物体的连续六自由度 (6-DoF) 姿态 (三维平移和旋转),可以应用于基于实例和类别的姿态恢复,且无论是纹理还是无纹理对象均可。实验结果表明,该方法可在杂乱背景下准确地恢复实例和类别物体的 6-DoF 姿态,并在大规模 PASCAL3D+ 数据集上显示出最先进的精度。
Mar, 2017