基于关键点几何推理的单目三维物体检测
KM3D-Net 提出了一种基于 RGB 图像和关键点的单次检测框架,通过结合完全卷积模型、几何约束和不依赖 CAD 模型、深度生成器,以及一种有效的半监督训练策略,实现了卓越的检测表现,并超过以前所有的最先进方法。
Sep, 2020
本文提出了 KeypointNet,这是一个端到端的几何推理框架,用于学习一组最优的类别特定 3D 关键点及其检测器。 通过对一张单独图片,KeypointNet 提取出用于下游任务优化的 3D 关键点,我们在 3D 姿势估计方面展示了这种框架,并提出了一个可微的目标,以寻求在两个对象视图之间恢复相对姿态的最佳关键点集。我们的模型在对象类别的不同视角和实例之间发现了几何和语义一致的关键点,重要的是,我们发现我们的端到端框架在不使用地面真值关键点注释的情况下胜过使用相同神经网络架构的完全监督基线在姿势估计任务上,在 ShapeNet 的汽车,椅子和飞机类别上可视化出发现的 3D 关键点。
Jul, 2018
本文提出了一种基于单目 RGB 图像的 3D 目标检测方法 ——Center3D,通过利用 2D 和 3D 中心之间的差异及组合分类和回归方法,可以更加准确、高效地定位和深度估计,相较现有方法,实验表明此方法在 KITTI 数据集上表现更好。
May, 2020
本篇研究提出一种基于几何建模的投影模型方法,用于改进单目三维物体检测中的深度估计问题,实验证明该方法使得检测性能得到了显著提升。
Jul, 2021
该论文提出了一种高效准确的单目三维检测框架,通过预测图像空间中的九个三维边界框透视关键点,利用三维和二维透视的几何关系恢复三维空间中的物体属性,无需外部网络或监督数据,实现基于单目图像的实时三维检测。
Jan, 2020
提出 MonoGRNet 用于从单目 RGB 图像通过几何推理在观测到的 2D 投影和未观测到的深度维度上进行遮挡物体的 3D 检测,并通过优化 3D 包围框的位置和姿态实现关节学习,表现出最先进的性能。
Nov, 2018
该研究提出了一种新的统一框架,将单眼 RGB 图像中的目标检测问题分解为结构化多边形预测任务和深度恢复任务,并使用对象高度先验进行反向投影变换,进一步纠正 3D 检测结果并取得了最先进的检测准确度。
Feb, 2020
本研究提出了一种基于几何关系的 monocular 三维物体检测方法,通过单独的三维区域建议网络和深度感知卷积层,能够有效地改善基于图像的三维物体检测在自动驾驶领域中的表现。在 KITTI 数据集上,与其他之前的方法相比,M3D-RPN 方法在单眼三维物体检测和俯视图检测任务中都表现出显著的性能提升。
Jul, 2019
利用物体分类内部几何规律的数据驱动姿态估计方法。首先,从 2D RGB 图像学习物体部分的姿态不变局部描述符。将这些描述符与来自固定3D 模板的关键点结合使用,生成给定单眼实际图像的关键点对应图。最后,使用这些关键点对应图,预测物体的3D 姿态。该方法在多个真实环境的视角估计数据集,如 Pascal3D + 与 ObjectNet3D 上的表现达到最佳水平,并且我们公开了所使用方法的代码以鼓励再生研究。
Sep, 2018