本文介绍了 BOP Challenge 2020(面向从 RGB-D 图像估计 6D 对象姿态的公共比赛系列中的第三个)的评估方法、数据集和结果。通过使用 BlenderProc4BOP 生成的物理真实渲染器(PBR)和程序化数据生成器提供了 35 万个写实的训练图像。结果表明,基于深度神经网络的方法已经赶上了基于点对特征的方法,并在训练和测试中仅使用 RGB 通道时取得了强大的结果。此外,强大的数据增强被确定为最佳表现的关键组件。
Sep, 2020
通过使用编码器 - 解码器网络以及 PnP-RANSAC 算法,估算单张 3D 模型可得的 RGB 输入图像中刚性对象的 6D 位姿,对具有全局或部分对称性的挑战性物体采用紧凑表面片段进行表示。
Apr, 2020
本文介绍了一个新的数据集和基准测试标准,主要针对从 3D 模型(有纹理和无纹理)训练,可扩展性,遮挡,光照和物体外观的变化等方面测试 6D 姿态估计算法的性能,并使用最先进的 DPOD 检测器来设置基线。
Apr, 2019
BOP Challenge 2023 的研究论文介绍了评估方法、数据集和结果,该竞赛集中探讨基于模型的 6D 物体位姿估计,包括任务的新变体,使用提供的 3D 物体模型在短时间内学习新物体的要求,并且展示出对已见和未见物体的有效定位方法和精度提高。
Mar, 2024
6D 目标姿态估计是计算机视觉中一个重要且具有挑战性的任务,本文介绍了 Omni6DPose 数据集以及使用 GenPose++ 方法对其进行的基准分析。
Jun, 2024
本文提出了一种离散连续的旋转回归公式来解决对称物体旋转不确定性问题,并通过点聚集向量来检测物体位置,并在 LINEMOD 和 YCB-Video 基准测试中得到比现有方法更好的表现。
Feb, 2020
使用稠密特征从 RGB 图像中直接回归物体的 6D 姿态是一个困难的任务,但最近的方法通过利用稠密特征在直接回归姿态方面取得了最先进的结果。使用立体视觉可以减少姿态的模糊性和遮挡,并且可以直接推断物体的距离。为了扩展立体的 6D 物体姿态估计到最新技术,我们创建了与 YCB-V 数据集兼容的立体版本。我们的方法利用立体视觉优于最先进的 6D 姿态估计算法,并且可以容易地用于其他基于稠密特征的算法。
Feb, 2024
本研究提出了一种混合方法,结合最佳实践和传统方法,采用卷积神经网络过滤高度不规则的数据,并使用点对投票方法恢复对象的姿态,该方法使用最佳性能的实例检测器和训练集进行自动方法选择。通过在 BOP 核心数据集上验证,本方法大幅优于基准方法,并成为 BOP 2020 挑战赛中最佳快速方法。
Nov, 2020
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
提出一种新颖的对象检测和 6 自由度姿态估计一次性方法,无需对目标对象进行训练,通过 2D-3D 对应估计物体姿态
Mar, 2022