RGBD 相对位姿估计中的几何深度一致性
本文提出了一种新的方法,使用注意力机制有效地考虑 RGB 和深度之间的相关性,探索了用于确保 RGB 和深度之间有效信息流的内部和交叉相关模块的有效融合策略。实验结果表明,该方法在对象姿态估计方面的表现优于现有方法,并证明了该方法可以为真实世界的机器人抓取任务提供准确的物体姿态估计。
Sep, 2019
我们的方法通过在网络中添加最新的 3D 几何数据作为额外输入,结合之前的几何提示,利用深度和 3D 场景重建领域中的先前工作,实现了与实时交互速度相比达到最先进的深度估计和场景重建。
Jun, 2024
本文介绍了一种用于三维目标姿态估计的新方法,将 RGB 图像与 CAD 模型匹配以实现目标姿态估计,通过学习选择关键点并保持视角和模态不变性的目标,消除了对昂贵的三维姿态注释的需求,并通过大量实验证明了该方法能够可靠地估计 RGB 图像中的目标姿态以及推广到训练期间未看到的目标实例。
Nov, 2018
本文提出了一种新颖的流程,通过解耦 6D 姿态和尺寸估计,减轻了单目观察带来的尺度不精确对刚性变换的影响,并借助预训练的单目估计器获取局部几何信息,以便搜寻二维 - 三维对应关系,并利用基于类别级统计的独立分支直接恢复物体的度量尺度,最后倡导使用 RANSAC-P$n$P 算法鲁棒求解 6D 物体姿态。在合成和真实数据集上进行了大量实验证明,相对于先前最先进的基于 RGB 的方法,我们的方法在旋转准确性方面表现出更高的性能。
Sep, 2023
本研究比较了直接和间接方法,提出了一种几何引导的直接回归方法(GDR-Net)来从几何表示学习 6D 位姿,结果显示我们的方法在 LM, LM-O 和 YCB-V 数据集上显著优于现有的最先进技术
Feb, 2021
我们提出了一种联合 3D 姿态和焦距估计方法,采用深度学习技术和几何算法,通过将焦距明确地估计和整合到 3D 姿态估计中来实现对野外物体类别的姿态和焦距估计,并在 Pix3D、Comp 和 Stanford 三个具有不同物体类别的具有挑战性的真实世界数据集上进行了详细的评估,结果在多个指标上明显优于现有方法。
Aug, 2019
本研究提出了一种基于高阶 3D 几何约束的深度预测模型,通过在重建的 3D 空间中随机采样三个点确定虚拟法向方向并设计相应的损失函数,能够显著提高深度预测的准确性,从而实现直接从深度图中恢复场景的 3D 结构(如点云和表面法向),进而消除了训练新子模型的必要性,并在 NYU Depth-V2 和 KITTI 等数据集上达到了最先进的性能水平。
Jul, 2019
通过使用双目输入,引进左右一致性损失函数,并提出一种保存边缘特征的损失函数来改善测试时训练中的深度模糊问题,提出了一种稠密的双目视频深度估计方法,调研结果表明该模型精度可靠。
May, 2023
本文介绍了一种通过自监督学习获得单目序列深度和姿态的方法,该方法不需要基础数据的支持,增加了更强的几何量和时间图像序列内部一致性的约束条件,能够显著提高单目图像序列深度和相对姿态估计的性能。
Sep, 2019
无需辅助信息,我们提出了一种使用纯 RGB 图像进行训练的 6D 物体姿态估计方法,通过利用来自多个不同视角的合成至实图像对中的几何约束(以像素级流一致性的形式表示)进行精化策略,从合成图像中获得初始姿态估计,并使用动态生成的伪标签。在三个具有挑战性的数据集上进行评估,结果表明我们的方法明显优于最先进的自监督方法,无需 2D 注释或额外的深度图像。
Aug, 2023