W-PoseNet: 密集对应正则化的像素对姿态回归
提出了一种基于自编码器、Pix2Pose 的 6D 姿态估计方法,可以精确地检测对称目标并处理部分遮挡的问题,无需依赖专家知识或特殊扫描设备进行 3D 建模,且在三个基准数据集上表现优于现有方法。
Aug, 2019
本研究提出了一种双向对应映射网络 (BiCo-Net),使用定向点对进行局部匹配,并结合姿态感知信息,生成并优化局部坐标及其法向量,以恢复起源于 RGB-D 图像、被分割成对象实例的物体的 6D 姿态,从而实现克服因严重遮挡和深度图像中的系统噪声而带来的挑战。实验结果表明,该方法在三个流行的基准数据集上可实现最先进的性能,尤其适用于更具挑战性的严重遮挡场景。
May, 2022
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
本文提出 DirectionNet 模型,通过预测 5D 相对位姿空间上的离散分布来改进相机位姿回归,实现将相机姿态分解为 3D 方向向量并在球面上估算离散分布。我们从 Matterport3D 和 InteriorNet 构建的具有挑战性的综合和真实姿态估计数据集中评估了我们的模型,结果表明我们的方法比直接回归大大减少了误差。(Translation: This paper proposes DirectionNet model to improve camera pose regression by predicting a discrete distribution over the 5D relative pose space. DirectionNet factorizes relative camera pose to a set of 3D direction vectors and estimates the distribution on the sphere, resulting in a significant error reduction compared to direct regression methods, as evaluated on challenging synthetic and real pose estimation datasets constructed from Matterport3D and InteriorNet.)
Jun, 2021
本研究利用深度神经网络进行对物体在已知场景下的姿态估计,其中提出了使用场景无关的神经网络模型 PixLoc,通过特征学习和度量学习方法将相机定位问题转换为多尺度特征直接对齐,该模型以像素数据作为输入并经过端到端训练后能够在大型环境中实现定位,同时通过精确的稀疏特征匹配以更小的代价实现关键点和姿态的联合优化。
Mar, 2021
本文介绍了一种基于深度学习的 6D 姿态估计架构,能够直接从对应点回归 6D 姿态,并提出了单阶段 6D 姿态估计框架,能够在准确性和速度方面显著优于现有的双阶段框架。
Nov, 2019
传统的几何注册方法只隐含地利用了 CAD 模型,这导致它们对观察质量的依赖性和遮挡缺陷。为了解决这个问题,本文提出了一种具有点对注意机制的双向对应预测网络,它不仅需要模型点预测对应关系,还明确地建模了观察和模型先验之间的几何相似性。我们的关键见解是,每个模型点与场景点之间的相关性为学习点对匹配提供了必要的信息。为了进一步解决特征分布差异带来的相关性噪声,我们设计了一个简单而有效的伪孪生网络来提高特征的一致性。在 LineMOD、YCB-Video 和 Occ-LineMOD 的公共数据集上的实验结果表明,所提出的方法在相同评价标准下取得了比其他最先进方法更好的性能。它的姿态估计的稳健性得到了极大的改善,特别是在遭受严重遮挡的环境中。
Aug, 2023
利用单个 RGB-D 图像,我们引入了一种新颖的方法来计算物体的 6DoF 姿态。通过密集对应,我们回归每个可见像素的物体坐标,从而有效降低输出空间并取得出色的性能,在 6D 姿态估计中胜过大多数先前的方法,特别是在遮挡场景中具有显著改进的优势。
May, 2024
论文探讨了使用几何学和场景重投影误差等新颖的损失函数进行深度学习相机位姿回归的方法,同时展示了该技术在不同数据集上比 SIFT 算法更好的性能。
Apr, 2017