OSOP: 多阶段一次拍摄物体姿态估计框架
本文介绍了一种新的基于深度图像的单镜头 6D 物体姿态估计方法,使用全卷积神经网络实现,通过将三维输入数据在空间上离散化,将姿态估计视为一个回归任务来处理,在所得到的体元上局部求解。该方法是端对端优化的,不需要手动标注 6D 姿态的真实世界数据,依靠完全使用合成数据进行训练的方式得到了良好的性能。实验验证了该方法在公共基准数据集上的优异表现。
Apr, 2020
该论文提出了一种单次操作的方法,可以在不需要多个阶段或检查多个假设的同时,在 RGB 图像中检测对象并预测其 6D 姿态。通过采用新的 CNN 架构和 PnP 算法,该方法可以以 50fps 的速度在 Titan X GPU 上运行,比其他最近的 CNN 方法具有更高的准确性和更适合实时处理。
Nov, 2017
本文提出了一种名为 OnePose 的新方法,可以在没有 CAD 模型的情况下对任意类别的物体进行物体姿态估计,利用视觉定位和图形注意力网络结合进行 2D 和 3D 特征匹配,结合基于特征的姿势跟踪器,可以实现对日常家用物品 6D 姿态的实时稳定检测和跟踪。
May, 2022
本文提出了一种基于 three-view 系统的 PoseMatcher 模型来进行精确的无模型一次性物体位姿估计,同时引入了 IO-Layer 进行有效信息的交叉注意力,还设计了对象点云下的基于数字图像处理的目标选取和定位算法。实验结果证明该方法在 Linemod 和 YCB-V 数据集上表现优异。
Apr, 2023
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
本文介绍了一种基于深度学习的 6D 姿态估计架构,能够直接从对应点回归 6D 姿态,并提出了单阶段 6D 姿态估计框架,能够在准确性和速度方面显著优于现有的双阶段框架。
Nov, 2019
提出适用于单个 RGB-D 输入图像的刚体物体 6D 姿态估计基准,并通过姿态误差函数对姿态歧义进行处理,在 15 种不同方法的全面评估中发现,基于点对特征的方法目前表现最佳。
Aug, 2018
本文介绍了一种基于深度卷积神经网络的方法,能够通过对特定对象类的分类和姿态回归,从单个或多视图中准确地推断大量对象类的六自由度姿态,并通过 SE(3)的均匀镶嵌提高了鲁棒性。作者还提出了一种适用于单视角存在歧义的高效多视图框架,并在 YCB-Video、JHUScene-50 和 ObjectNet-3D 三个大规模基准测试中取得了优异的表现,与目前现有技术相比表现优秀。
Mar, 2018
本文通过光学非视线成像系统获取的瞬态图像描述了一种实现 3D 人体姿势估计的方法,通过使用间接反射的光线,实现了从街角窥视的功能;该方法将非视线成像、人体姿势估计和深度强化学习等多个领域的技术结合起来,通过端对端的数据处理流程,将源源不断的光子测量转换为整个 3D 人体姿势序列的估计,并通过数据综合和增强策略实现靠近现实的 NLOS 成像系统数据的预测。初步实验结果表明,本文所提出的方法可以推广至真实世界的 NLOS 测量,从而实现估算物理上有效的 3D 人体姿势。
Mar, 2020
通过使用编码器 - 解码器网络以及 PnP-RANSAC 算法,估算单张 3D 模型可得的 RGB 输入图像中刚性对象的 6D 位姿,对具有全局或部分对称性的挑战性物体采用紧凑表面片段进行表示。
Apr, 2020