基于分割的 6D 物体姿态估计
本文介绍了一种基于深度学习的 6D 姿态估计架构,能够直接从对应点回归 6D 姿态,并提出了单阶段 6D 姿态估计框架,能够在准确性和速度方面显著优于现有的双阶段框架。
Nov, 2019
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
该论文提出了一种单次操作的方法,可以在不需要多个阶段或检查多个假设的同时,在 RGB 图像中检测对象并预测其 6D 姿态。通过采用新的 CNN 架构和 PnP 算法,该方法可以以 50fps 的速度在 Titan X GPU 上运行,比其他最近的 CNN 方法具有更高的准确性和更适合实时处理。
Nov, 2017
本文提出了一种离散连续的旋转回归公式来解决对称物体旋转不确定性问题,并通过点聚集向量来检测物体位置,并在 LINEMOD 和 YCB-Video 基准测试中得到比现有方法更好的表现。
Feb, 2020
本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
本文提出了一种新的方法,使用卷积网络 (ConvNet) 预测语义关键点结合可变形形状模型,从单张 RGB 图像中估计物体的连续六自由度 (6-DoF) 姿态 (三维平移和旋转),可以应用于基于实例和类别的姿态恢复,且无论是纹理还是无纹理对象均可。实验结果表明,该方法可在杂乱背景下准确地恢复实例和类别物体的 6-DoF 姿态,并在大规模 PASCAL3D+ 数据集上显示出最先进的精度。
Mar, 2017
本文介绍了一种新的基于深度图像的单镜头 6D 物体姿态估计方法,使用全卷积神经网络实现,通过将三维输入数据在空间上离散化,将姿态估计视为一个回归任务来处理,在所得到的体元上局部求解。该方法是端对端优化的,不需要手动标注 6D 姿态的真实世界数据,依靠完全使用合成数据进行训练的方式得到了良好的性能。实验验证了该方法在公共基准数据集上的优异表现。
Apr, 2020
本文提出了 DenseFusion 框架,使用异构网络结构从 RGB-D 图像中估计已知物体的 6D 位姿,并通过端对端迭代位姿细化进一步提高了姿态估计的精度和实时性。实验结果表明,我们的方法在 YCB-Video 和 LineMOD 数据集上优于现有方法,并在实际机器人应用中实现了对物体的抓取和操作。
Jan, 2019
本文基于 2D 物体注释和 RGB 图像提出了一个双步骤的姿态估计框架,该框架使用 DSC-PoseNet 网络实现了基于差分渲染器的姿态估计,同时还利用自我监督学习生成伪标签进行训练,实验表明该方法在真实数据集上性能优于基于合成数据集的现有模型。
Apr, 2021
提出了一种基于 6D 目标姿态估计的刚性感知检测方法,利用可见目标区域进行训练样本的采样,使用最小障碍距离构建了可见性图,产生更好的检测性能,并结合姿态回归网络在很多 6D 目标姿态评估数据集中获得了最佳结果。
Mar, 2023