本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
本文提出了一种基于学习的方法,用于在点云数据中完成刚性物体的 6 自由度姿态估计,并且相比于使用 RGB 信息进行物体检测的方法,本方法可以通过初始检测到最终转换估计阶段处理无序的点集来实现准确的姿态估计,有些情况下还能够超过在相同数据上训练的最先进的方法.
Dec, 2019
本文介绍了一种新的基于深度图像的单镜头 6D 物体姿态估计方法,使用全卷积神经网络实现,通过将三维输入数据在空间上离散化,将姿态估计视为一个回归任务来处理,在所得到的体元上局部求解。该方法是端对端优化的,不需要手动标注 6D 姿态的真实世界数据,依靠完全使用合成数据进行训练的方式得到了良好的性能。实验验证了该方法在公共基准数据集上的优异表现。
Apr, 2020
本文提出了一种新的方法,使用卷积网络 (ConvNet) 预测语义关键点结合可变形形状模型,从单张 RGB 图像中估计物体的连续六自由度 (6-DoF) 姿态 (三维平移和旋转),可以应用于基于实例和类别的姿态恢复,且无论是纹理还是无纹理对象均可。实验结果表明,该方法可在杂乱背景下准确地恢复实例和类别物体的 6-DoF 姿态,并在大规模 PASCAL3D+ 数据集上显示出最先进的精度。
Mar, 2017
提出了一种基于 6D 目标姿态估计的刚性感知检测方法,利用可见目标区域进行训练样本的采样,使用最小障碍距离构建了可见性图,产生更好的检测性能,并结合姿态回归网络在很多 6D 目标姿态评估数据集中获得了最佳结果。
Mar, 2023
该研究旨在使用卷积神经网络检测和定位 RGB-D 场景中的物体,然后使用 3D 模型替换它们,相对于目前最先进的算法,该方法在 3D 检测任务中表现出 48%的相对改进,并且速度更快。
Feb, 2015
本文介绍了一种能够从 RGB 图像中检测三维物体和估计六自由度姿态的新型深度学习方法,称为 DPOD。该方法估计输入图像和可用的三维模型之间的密集多类二维三维对应关系图,通过 PnP 和 RANSAC 计算六自由度姿态,并使用基于深度学习的自定义方案对初始姿态估计进行了 RGB 姿态优化。与其他主要使用真实数据进行训练且不对合成渲染进行训练的方法不同,我们对合成数据和真实训练数据进行评估,显示出在所有最近的检测器中,此方法无论先前和后面都能够获得优异的结果。虽然具有精度,但本方法仍然具有实时性能。
Feb, 2019
本文提出了一种基于密集对应的三阶段六自由度物体检测方法,称为 DPODv2(密集姿势物体检测器),结合了 2D 物体检测与密集对应估计网络以及多视图姿态细化方法来估计完整的 6 自由度姿态,其使用了不同成像模式(RGB 或 Depth)作为输入。实验结果表明,RGB 成像在对应估计方面表现优异,而如果存在良好的 3D-3D 对应,则深度成像可提高姿势精度。
Jul, 2022