M3D-RPN: 单目三维区域建议网络用于目标检测
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
提出了一种基于稀疏和稠密、语义和几何信息的 3D 目标检测方法,名为 Stereo R-CNN,在自动驾驶领域表现优异,无需 3D 位置监督,与现有的基于图像的全监督方法相比,性能更好,实验表明在 KITTI 数据集上,其在 3D 检测和 3D 定位任务中超过现有的基于立体视觉的方法约 30% 的 AP。
Feb, 2019
本篇研究提出了一种基于关键点的方法,利用单个 RGB 图像进行三维目标检测和定位,该网络基于 2D 关键点检测和几何推理方法,同时估计 2D 特征和全局 3D 姿态,最终在 KITTI 数据集中达到了最好的性能表现。
May, 2019
该论文提出了一种高效准确的单目三维检测框架,通过预测图像空间中的九个三维边界框透视关键点,利用三维和二维透视的几何关系恢复三维空间中的物体属性,无需外部网络或监督数据,实现基于单目图像的实时三维检测。
Jan, 2020
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
KM3D-Net 提出了一种基于 RGB 图像和关键点的单次检测框架,通过结合完全卷积模型、几何约束和不依赖 CAD 模型、深度生成器,以及一种有效的半监督训练策略,实现了卓越的检测表现,并超过以前所有的最先进方法。
Sep, 2020
AVOD 是一种用于自动驾驶场景的聚合视图目标检测神经网络,使用 LIDAR 点云和 RGB 图像生成特征来进行准确的 3D 目标检测及分类,实时低内存足迹的优秀表现使其成为自动驾驶部署的合适选择。
Dec, 2017
该研究提出了一种新的统一框架,将单眼 RGB 图像中的目标检测问题分解为结构化多边形预测任务和深度恢复任务,并使用对象高度先验进行反向投影变换,进一步纠正 3D 检测结果并取得了最先进的检测准确度。
Feb, 2020
提出 MonoGRNet 用于从单目 RGB 图像通过几何推理在观测到的 2D 投影和未观测到的深度维度上进行遮挡物体的 3D 检测,并通过优化 3D 包围框的位置和姿态实现关节学习,表现出最先进的性能。
Nov, 2018