DSC-PoseNet: 双尺度一致性学习 6DoF 目标位姿估计
以 Single View Image 作为输入,本文提出一种基于 Dual Pose Network 的新方法来预测 6D 对象姿态(旋转、平移和大小),DualPoseNet 利用两个平行的姿态解码器在共享姿态编码器的基础上,对对象构成补充监督,加强对姿态的学习,同时在没有测试 CAD 模型的情况下使用隐式解码器进行精细化的姿态预测,得到了比现有方法更好的效果。
Mar, 2021
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
无需辅助信息,我们提出了一种使用纯 RGB 图像进行训练的 6D 物体姿态估计方法,通过利用来自多个不同视角的合成至实图像对中的几何约束(以像素级流一致性的形式表示)进行精化策略,从合成图像中获得初始姿态估计,并使用动态生成的伪标签。在三个具有挑战性的数据集上进行评估,结果表明我们的方法明显优于最先进的自监督方法,无需 2D 注释或额外的深度图像。
Aug, 2023
使用无监督学习的方法进行单眼 RGB 数据下的 6D 物体位姿估计,作者训练了一个神经网络模型,通过真实 RGB-D 数据的自监督模式来提高模型的性能表现,并证明了该方法能够显著地优化模型的性能,超过了其他使用合成数据或领域适应技术的方法。
Apr, 2020
本文提出了一种新颖的流程,通过解耦 6D 姿态和尺寸估计,减轻了单目观察带来的尺度不精确对刚性变换的影响,并借助预训练的单目估计器获取局部几何信息,以便搜寻二维 - 三维对应关系,并利用基于类别级统计的独立分支直接恢复物体的度量尺度,最后倡导使用 RANSAC-P$n$P 算法鲁棒求解 6D 物体姿态。在合成和真实数据集上进行了大量实验证明,相对于先前最先进的基于 RGB 的方法,我们的方法在旋转准确性方面表现出更高的性能。
Sep, 2023
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
本文提出了一种新的方法,使用卷积网络 (ConvNet) 预测语义关键点结合可变形形状模型,从单张 RGB 图像中估计物体的连续六自由度 (6-DoF) 姿态 (三维平移和旋转),可以应用于基于实例和类别的姿态恢复,且无论是纹理还是无纹理对象均可。实验结果表明,该方法可在杂乱背景下准确地恢复实例和类别物体的 6-DoF 姿态,并在大规模 PASCAL3D+ 数据集上显示出最先进的精度。
Mar, 2017
本文提出了一种基于密集对应的三阶段六自由度物体检测方法,称为 DPODv2(密集姿势物体检测器),结合了 2D 物体检测与密集对应估计网络以及多视图姿态细化方法来估计完整的 6 自由度姿态,其使用了不同成像模式(RGB 或 Depth)作为输入。实验结果表明,RGB 成像在对应估计方面表现优异,而如果存在良好的 3D-3D 对应,则深度成像可提高姿势精度。
Jul, 2022
本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
本文介绍了一种基于深度卷积神经网络的方法,能够通过对特定对象类的分类和姿态回归,从单个或多视图中准确地推断大量对象类的六自由度姿态,并通过 SE(3)的均匀镶嵌提高了鲁棒性。作者还提出了一种适用于单视角存在歧义的高效多视图框架,并在 YCB-Video、JHUScene-50 和 ObjectNet-3D 三个大规模基准测试中取得了优异的表现,与目前现有技术相比表现优秀。
Mar, 2018