空间中的宽度 - 深度范围 6D 物体姿态估计
本文提出了一种基于合成图像或少量真实图像训练的 6D 物体位姿估计方法,使用第一网络获得粗略姿态估计后,使用第二网络预测精细的二维对应场,并推断所需的姿态纠正,该方法在显著减少合成图像与真实图像领域差异的情况下具有与需要标注真实图像训练的方法相当的性能,而在使用 20 张真实图像时,它的性能明显优于它们。
Mar, 2022
本文介绍了一种基于深度学习的 6D 姿态估计架构,能够直接从对应点回归 6D 姿态,并提出了单阶段 6D 姿态估计框架,能够在准确性和速度方面显著优于现有的双阶段框架。
Nov, 2019
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
6D 目标姿态估计是计算机视觉中一个重要且具有挑战性的任务,本文介绍了 Omni6DPose 数据集以及使用 GenPose++ 方法对其进行的基准分析。
Jun, 2024
本文介绍了一种新的基于深度图像的单镜头 6D 物体姿态估计方法,使用全卷积神经网络实现,通过将三维输入数据在空间上离散化,将姿态估计视为一个回归任务来处理,在所得到的体元上局部求解。该方法是端对端优化的,不需要手动标注 6D 姿态的真实世界数据,依靠完全使用合成数据进行训练的方式得到了良好的性能。实验验证了该方法在公共基准数据集上的优异表现。
Apr, 2020
本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
本文提出了一个称为 OVE6D 的通用框架,用于基于模型的 6D 物体姿态估计,并使用纯合成数据来训练模型。通过将 6D 姿态分解为视点、绕摄像机光轴的平面旋转和平移,并引入新颖的轻量级模块进行级联估计,我们实现了对新实际世界的对象泛化而不需要微调。我们的网络包含少于 4M 个参数,但在没有任何特定数据集的训练下,在具有挑战性的 T-LESS 和 Occluded LINEMOD 数据集上表现出优秀的性能。我们还表明,OVE6D 的表现优于一些专门针对具有现实世界训练数据的单个对象或数据集进行训练的当代深度学习姿势估计方法。我们将公开实现和预训练模型。
Mar, 2022
本文基于 2D 物体注释和 RGB 图像提出了一个双步骤的姿态估计框架,该框架使用 DSC-PoseNet 网络实现了基于差分渲染器的姿态估计,同时还利用自我监督学习生成伪标签进行训练,实验表明该方法在真实数据集上性能优于基于合成数据集的现有模型。
Apr, 2021
使用稠密特征从 RGB 图像中直接回归物体的 6D 姿态是一个困难的任务,但最近的方法通过利用稠密特征在直接回归姿态方面取得了最先进的结果。使用立体视觉可以减少姿态的模糊性和遮挡,并且可以直接推断物体的距离。为了扩展立体的 6D 物体姿态估计到最新技术,我们创建了与 YCB-V 数据集兼容的立体版本。我们的方法利用立体视觉优于最先进的 6D 姿态估计算法,并且可以容易地用于其他基于稠密特征的算法。
Feb, 2024