DeepIM: 6D 姿态估计的深度迭代匹配
本文介绍了一种名为 Deep-6DPose 的端到端深度学习框架,可以从单个 RGB 图像中同时检测、分割并恢复目标实例的 6D 姿态。实验表明,Deep-6DPose 比目前基于 RGB 的多阶段姿态估计方法更快,并且在标准的姿态基准数据集上显示出与现有方法相当的好的效果。
Feb, 2018
本文提出了一种基于关键帧的密集相机跟踪和深度图估计系统,该系统完全是通过学习而实现的,实现了小姿态增量的估计和大量姿态假设的产生,并通过成本体积累积信息和图像先验来更新深度预测,具有优越的 RGB-D 跟踪算法性能和与强大的传统和深度学习算法比较的竞争力。
Aug, 2018
本文提出了 DenseFusion 框架,使用异构网络结构从 RGB-D 图像中估计已知物体的 6D 位姿,并通过端对端迭代位姿细化进一步提高了姿态估计的精度和实时性。实验结果表明,我们的方法在 YCB-Video 和 LineMOD 数据集上优于现有方法,并在实际机器人应用中实现了对物体的抓取和操作。
Jan, 2019
本研究提出了一种基于深度神经网络的视觉损失函数,通过对凸形物体外轮廓的对齐来驱动位姿更新进行模型为 6D 姿态精修的处理,方法无需确定外观模型、免除了手动图像分割、同时能够处理遮挡问题和几何不对称性与视觉模糊问题,并且能够在没有深度数据的情况下准确地估算物体位姿。
Oct, 2018
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
通过使用预训练的 Vision Transformers(ViT)提取的视觉描述符,我们引入了 ZS6D 方法,用于零样本新目标 6D 姿态估计,该方法在众多最新的姿态估计方法上表现卓越,无需进行特定任务的微调。我们在 LMO、YCBV 和 TLESS 等三个数据集上进行了实验,并与两种方法进行了比较,结果在所有三个数据集上相较于其中一种方法有显著提升,在两个数据集上相较于另一种方法有提升。
Sep, 2023
我们提出了一种完全通用的深度姿态估计方法,通过动态条件姿态估计和目标物体的 3D 模型表示相结合,能够对不属于预定义类别的自然实体进行训练并将其推广到全新类型的 3D 对象。
Jun, 2019
本文提出了一种基于 three-view 系统的 PoseMatcher 模型来进行精确的无模型一次性物体位姿估计,同时引入了 IO-Layer 进行有效信息的交叉注意力,还设计了对象点云下的基于数字图像处理的目标选取和定位算法。实验结果证明该方法在 Linemod 和 YCB-V 数据集上表现优异。
Apr, 2023
本研究提出了一种基于多任务学习的深度学习神经网络结构,用于从随机堆放的物品中恢复多个实例的 6D 姿态,通过在深度感知模式下进行 2D 检测、深度估计和 3D 姿态估计的多子任务联合学习,以及多个物体的联合注册,以学习众多遮挡情况,实验结果表明,与现有方法相比,在合成和真实数据集上平均精度提高了 15-31 %。
Jun, 2018
本文介绍了一种基于深度学习的 6D 姿态估计架构,能够直接从对应点回归 6D 姿态,并提出了单阶段 6D 姿态估计框架,能够在准确性和速度方面显著优于现有的双阶段框架。
Nov, 2019