学习本地 RGB-CAD 对应关系用于物体姿态估计
该研究提出了一种结合了深度学习和三维几何的方法,利用未带纹理的 CAD 模型和不需要针对新对象进行训练的方法,检测和估计图像中物体的 3D 姿态,并利用 Mask-RCNN 实现无需重新训练的对象检测,从而限制可能的对应关系数量。实验结果表明,该方法与之前的方法相当或更好。
Oct, 2020
该研究旨在使用卷积神经网络检测和定位 RGB-D 场景中的物体,然后使用 3D 模型替换它们,相对于目前最先进的算法,该方法在 3D 检测任务中表现出 48%的相对改进,并且速度更快。
Feb, 2015
我们提出了一种自动化和高效的方法,用于检索通过移动 RGB-D 相机捕获的场景中物体的高质量 CAD 模型及其姿势,并使用渲染对比和蒙特卡洛树搜索算法实现了物体检索、CAD 模型和姿势估计的快速搜索。
Sep, 2023
本篇论文提出 SyntheticP3D 数据集和 CC3D 方法,结合这两种方法可以实现在只用 10% 的真实数据的情况下,与当前最先进的模型在物体位姿估计方面取得了可与之媲美结果,在采用 50% 的真实数据时还超越了 SOTA 模型 10.4%。
May, 2023
基于 CAD 模型基元从 RGB 图像中感知 3D 结构可以有效地实现基于三维物体的场景表示,本文提出了 DiffCAD,这是一种第一个弱监督的条件生成方法,可以从 RGB 图像中检索和对齐 CAD 模型,通过扩散学习隐式概率模型来捕捉 CAD 对象在图像中的形状、姿态和尺度,实现了多个假设生成和对深度 / 尺度和形状匹配的歧义进行建模。
Nov, 2023
利用物体分类内部几何规律的数据驱动姿态估计方法。首先,从 2D RGB 图像学习物体部分的姿态不变局部描述符。将这些描述符与来自固定3D 模板的关键点结合使用,生成给定单眼实际图像的关键点对应图。最后,使用这些关键点对应图,预测物体的3D 姿态。该方法在多个真实环境的视角估计数据集,如 Pascal3D + 与 ObjectNet3D 上的表现达到最佳水平,并且我们公开了所使用方法的代码以鼓励再生研究。
Sep, 2018
本文提出了一种可扩展,高效和准确的方法,用于检索野外对象的 3D 模型,包括了 3D 姿态估计,使用姿态先验来检索 3D 模型,使用基于 CNN 的多视图度量学习方法从 RGB 图像中检索图像描述符与采用的渲染深度图像匹配的深度图像得出精准的 3D 模型,报告了 Pascal3D + 上 3D 模型的定量结果。
Mar, 2018
本文提出了一种通过 RGB-D 相机捕捉的配对颜色和深度图像来学习三维姿态估计的新方法,通过学习合成深度图像并将其与实际深度图像对齐,实现了仅在颜色图像上进行三维手部姿势估计和三维物体姿势估计的任务,并在不需要颜色图像的任何注释的情况下,在流行的基准数据集上实现了可比较的性能。
Oct, 2018
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
该研究提出了一种基于关键点的方法,通过一个 RGB 图像作为输入,对已知类别内的未知目标实例进行目录级别的物体位姿估计,采用单阶段神经网络,并在 Objectron 基准测试中表现出比现有方法更好的性能
Sep, 2021