利用单个 RGB-D 图像,我们引入了一种新颖的方法来计算物体的 6DoF 姿态。通过密集对应,我们回归每个可见像素的物体坐标,从而有效降低输出空间并取得出色的性能,在 6D 姿态估计中胜过大多数先前的方法,特别是在遮挡场景中具有显著改进的优势。
May, 2024
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
本文提出了 DenseFusion 框架,使用异构网络结构从 RGB-D 图像中估计已知物体的 6D 位姿,并通过端对端迭代位姿细化进一步提高了姿态估计的精度和实时性。实验结果表明,我们的方法在 YCB-Video 和 LineMOD 数据集上优于现有方法,并在实际机器人应用中实现了对物体的抓取和操作。
Jan, 2019
本文提出了一种用于从单个 RGB-D 图像估计刚性物体 6D 姿态的计算高效的回归框架,可应用于处理对称物体,并且在特征提取方面使用全卷积神经网络 XYZNet, 直接回归 6D 姿态,并且设计了对称不变的姿态距离度量,称为平均 (最大) 分组基元距离或 A (M) GPD, 在 YCB-Video 和 T-LESS 数据集上进行的大量实验表明,该提出的框架在高准确性和低计算成本方面具有显着优越性。
Apr, 2022
本文提出了一种利用点云深度信息并结合卷积神经网络和几何姿态优化,分别使用旋转和平移回归网络的方法来估算已知 3D 物体的 6 自由度姿态,其中通过旋转轴角表示旋转并使用测地线损失函数进行回归,实验结果在 YCB-video 数据集上明显优于现有方法。
Jan, 2020
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
本文提出了一种新的方法,使用卷积网络 (ConvNet) 预测语义关键点结合可变形形状模型,从单张 RGB 图像中估计物体的连续六自由度 (6-DoF) 姿态 (三维平移和旋转),可以应用于基于实例和类别的姿态恢复,且无论是纹理还是无纹理对象均可。实验结果表明,该方法可在杂乱背景下准确地恢复实例和类别物体的 6-DoF 姿态,并在大规模 PASCAL3D+ 数据集上显示出最先进的精度。
Mar, 2017
利用 RGBD 图像估算 3D 人体姿态,通过关键点检测器和深度信息实现 3D 提升,在真实环境下通过学习演示框架指示服务机器人模仿人类教师的操作,超越了单眼调色板和深度姿态估计方法的性能。
Mar, 2018
本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
本文介绍了一种通用的无模型 6 自由度物体姿势估计模型 ——Gen6D。该模型不需要高质量物体模型,不需要深度图或物体遮蔽物,在任何环境下只需要物体的几张照片便可以准确预测物体的姿态。在实验中,Gen6D 在两个无模型数据集上达到了最新成果,以及在 LINEMOD 数据集上与特定实例的姿势估计相比展现出一定的竞争力。