MatchU:从 RGB-D 图像中匹配未见物体的 6D 姿态估计
本文提出了一种名为 3DMatch 的数据驱动模型,它可以学习用于建立局部 3D 数据对应关系的局部体积块描述符,且利用自我监督特征学习方法来汇集训练数据。实验证明,该描述符不仅可以用于重构新场景的局部几何形状的匹配,而且可以推广到不同的任务和空间尺度。
Mar, 2016
本文提出了 DenseFusion 框架,使用异构网络结构从 RGB-D 图像中估计已知物体的 6D 位姿,并通过端对端迭代位姿细化进一步提高了姿态估计的精度和实时性。实验结果表明,我们的方法在 YCB-Video 和 LineMOD 数据集上优于现有方法,并在实际机器人应用中实现了对物体的抓取和操作。
Jan, 2019
3DUDA 是一种适应无关 3D 或深度数据的干扰严重的目标领域的方法,通过对物体的不变子组件进行策略性利用,迭代更新本地鲁棒的网格顶点特征并改进姿态估计准确度,以解决领域转移挑战。
Jan, 2024
本文提出了一种新的方法,使用注意力机制有效地考虑 RGB 和深度之间的相关性,探索了用于确保 RGB 和深度之间有效信息流的内部和交叉相关模块的有效融合策略。实验结果表明,该方法在对象姿态估计方面的表现优于现有方法,并证明了该方法可以为真实世界的机器人抓取任务提供准确的物体姿态估计。
Sep, 2019
该研究提出了一种结合了深度学习和三维几何的方法,利用未带纹理的 CAD 模型和不需要针对新对象进行训练的方法,检测和估计图像中物体的 3D 姿态,并利用 Mask-RCNN 实现无需重新训练的对象检测,从而限制可能的对应关系数量。实验结果表明,该方法与之前的方法相当或更好。
Oct, 2020
本文提出了一个灵活的框架 DetMatch,用于 2D 和 3D 模态的联合半监督学习,通过识别两个传感器检测到的对象,生成更干净、更健壮的伪标签,进一步利用 RGB 图像的更丰富的语义来矫正不正确的 3D 类别预测。该方法在 KITTI 和 Waymo 数据集上取得了比强大的半监督学习方法更好的效果。
Mar, 2022
本研究提出了一种基于半监督学习的 3D 目标检测方法,通过教师 - 学生的互相学习机制传播信息,结合置信度过滤和 3D IoU 定位度量,实现了在室内外场景下进行更有效、精确的目标检测,提升了现有方法的表现。
Dec, 2020
本论文提出了一种基于端到端学习框架的关键点检测及其表示的方法,以适应于三维深度地图或扫描,通过采样相应的区域提案实现正负样本的自动获取,并在多个基准数据集上进行匹配实验,表明该方法相对于现有方法具有明显的改进。
Feb, 2018
提出了一种基于多视角视野的实时视觉系统,可以从单个 RGB-D 视角提出三维物体姿态建议,并且根据多个视角的姿态估计和非参数占用信息积累这些姿态估计,从而对接触的多个已知对象进行一致的、不相交的姿态估计。应用于实时机器人应用程序中,只使用机载 RGB-D 视觉,机械臂可以精确而有序地拆卸复杂的物体堆放,展示了其准确性和鲁棒性。
Apr, 2020
本文介绍了一种用于三维目标姿态估计的新方法,将 RGB 图像与 CAD 模型匹配以实现目标姿态估计,通过学习选择关键点并保持视角和模态不变性的目标,消除了对昂贵的三维姿态注释的需求,并通过大量实验证明了该方法能够可靠地估计 RGB 图像中的目标姿态以及推广到训练期间未看到的目标实例。
Nov, 2018