本篇研究提出了一种基于关键点的方法,利用单个 RGB 图像进行三维目标检测和定位,该网络基于 2D 关键点检测和几何推理方法,同时估计 2D 特征和全局 3D 姿态,最终在 KITTI 数据集中达到了最好的性能表现。
May, 2019
利用深度信息,无需任何三维标注或其他训练数据,SKD-WM3D 提出了一种弱监督的单目三维检测框架,通过融合深度信息将图像特征转化为三维表示,有效地消除了单目场景中的深度歧义。实验证明,SKD-WM3D 明显超过了最先进的方法,甚至与许多全监督方法相媲美。
Feb, 2024
该论文提出了一种高效准确的单目三维检测框架,通过预测图像空间中的九个三维边界框透视关键点,利用三维和二维透视的几何关系恢复三维空间中的物体属性,无需外部网络或监督数据,实现基于单目图像的实时三维检测。
Jan, 2020
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021
本研究提出了一种基于自监督的方法,利用强形状先验和二维实例掩模来重建带纹理的三维物体并进行姿态估计,通过可微分渲染和先前预训练的单目深度估计网络推断图像中每个物体的三维位置和网格信息,实验结果表明本方法有效地利用嘈杂的单目深度和可微分渲染来代替昂贵的 3D 地面真值标签或激光雷达信息。
Sep, 2020
Shift R-CNN 是一种用于单目 3D 物体检测的混合模型,结合了深度学习和几何优势,利用几何约束的深度学习方法在 KITTI 3D Object Detection Benchmark 上取得了最佳结果。
本文提出了一种基于单目 RGB 图像的 3D 目标检测方法 ——Center3D,通过利用 2D 和 3D 中心之间的差异及组合分类和回归方法,可以更加准确、高效地定位和深度估计,相较现有方法,实验表明此方法在 KITTI 数据集上表现更好。
May, 2020
本研究提出了一种基于几何关系的 monocular 三维物体检测方法,通过单独的三维区域建议网络和深度感知卷积层,能够有效地改善基于图像的三维物体检测在自动驾驶领域中的表现。在 KITTI 数据集上,与其他之前的方法相比,M3D-RPN 方法在单眼三维物体检测和俯视图检测任务中都表现出显著的性能提升。
Jul, 2019
该研究提出了一种基于深度神经网络和形态感知的三维目标检测方法,利用二维关键点和对应的三维坐标以及二维 / 三维的几何约束提高检测性能,并在公共数据集 KITTI 上实现了最新的性能。
Aug, 2021