GDR-Net: 基于几何引导的单目 6D 物体位姿估计直接回归网络
本文提出了一种用于从单个 RGB-D 图像估计刚性物体 6D 姿态的计算高效的回归框架,可应用于处理对称物体,并且在特征提取方面使用全卷积神经网络 XYZNet, 直接回归 6D 姿态,并且设计了对称不变的姿态距离度量,称为平均 (最大) 分组基元距离或 A (M) GPD, 在 YCB-Video 和 T-LESS 数据集上进行的大量实验表明,该提出的框架在高准确性和低计算成本方面具有显着优越性。
Apr, 2022
利用单个 RGB-D 图像,我们引入了一种新颖的方法来计算物体的 6DoF 姿态。通过密集对应,我们回归每个可见像素的物体坐标,从而有效降低输出空间并取得出色的性能,在 6D 姿态估计中胜过大多数先前的方法,特别是在遮挡场景中具有显著改进的优势。
May, 2024
本文提出了一种利用点云深度信息并结合卷积神经网络和几何姿态优化,分别使用旋转和平移回归网络的方法来估算已知 3D 物体的 6 自由度姿态,其中通过旋转轴角表示旋转并使用测地线损失函数进行回归,实验结果在 YCB-video 数据集上明显优于现有方法。
Jan, 2020
本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
本文提出了一种离散连续的旋转回归公式来解决对称物体旋转不确定性问题,并通过点聚集向量来检测物体位置,并在 LINEMOD 和 YCB-Video 基准测试中得到比现有方法更好的表现。
Feb, 2020
本文提出了一种名为 OLD-Net 的新颖方法,该方法利用 RGB 图像推断出物体水平六维姿态。在这个方法中,我们利用两个新的模块 NGPH 和 SDDR 来学习高保真度的物体水平深度和精美的形状表示,最后通过将预测的规范化表示与反向投影的物体水平深度对齐来解决 6D 物体姿态问题,在挑战性的 CAMERA25 和 REAL275 数据集上进行了广泛实验,结果表明,我们的模型尽管简单,但实现了最先进的性能。
Apr, 2022
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
使用无监督学习的方法进行单眼 RGB 数据下的 6D 物体位姿估计,作者训练了一个神经网络模型,通过真实 RGB-D 数据的自监督模式来提高模型的性能表现,并证明了该方法能够显著地优化模型的性能,超过了其他使用合成数据或领域适应技术的方法。
Apr, 2020
本文介绍了一种通用的无模型 6 自由度物体姿势估计模型 ——Gen6D。该模型不需要高质量物体模型,不需要深度图或物体遮蔽物,在任何环境下只需要物体的几张照片便可以准确预测物体的姿态。在实验中,Gen6D 在两个无模型数据集上达到了最新成果,以及在 LINEMOD 数据集上与特定实例的姿势估计相比展现出一定的竞争力。
Apr, 2022
本文介绍了一种基于深度学习的 6D 姿态估计架构,能够直接从对应点回归 6D 姿态,并提出了单阶段 6D 姿态估计框架,能够在准确性和速度方面显著优于现有的双阶段框架。
Nov, 2019