基于 Stereo R-CNN 的自动驾驶三维物体检测
本文利用立体图像对 3D 目标进行检测,通过能量函数优化,使用 CNN 进行目标检测和姿态估计,实现在 KITTI 测试中的最佳表现,并应用 LIDAR 信息进一步优化检测结果。
Aug, 2016
本研究提出了一种基于几何关系的 monocular 三维物体检测方法,通过单独的三维区域建议网络和深度感知卷积层,能够有效地改善基于图像的三维物体检测在自动驾驶领域中的表现。在 KITTI 数据集上,与其他之前的方法相比,M3D-RPN 方法在单眼三维物体检测和俯视图检测任务中都表现出显著的性能提升。
Jul, 2019
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021
本文提出了一种在自动驾驶背景下具有多传感器优化的三维目标检测系统,其中单眼相机可以作为二维目标提议和初步三维边界框预测,而立体相机和 LiDAR 则被视为自适应插件传感器以优化 3D 边界框本地化性能。
Sep, 2019
本文介绍了 Sparse R-CNN 3D(SRCN3D),这是一种基于稀疏查询、稀疏注意力和稀疏预测的二阶段全稀疏探测器,用于环绕视图相机检测和跟踪。 SRCN3D 具有有效、快速和轻量级的特点,并在多目标跟踪中实现了综合利用运动特征、提议特征和 RoI 特征,与 2022.08.09 之前的最佳方法相比,在仅使用相机的多目标跟踪中,AMOTA 指标超过 10 个点。
Jun, 2022
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
研究采用一种新型 2D 框和以物体为中心的立体匹配方法,通过测量目标物体的视差来解决当前立体匹配网络固有的偏差问题,从而实现自主驾驶中的 3D 对象检测。
Sep, 2019
本文提出了一种基于单个 RGB 图像的高效三维目标检测框架,旨在从二维图像中提取三维信息并在无点云或立体数据的情况下确定对象的精确三维边界框。该方法利用二维目标检测器提取表面视觉特征,消除使用二维边界框带来的表征歧义问题,并探索了不同的三维边界框细化方法,发现基于质量感知损失的分类式方法具有更好的性能。在 KITTI 基准测试上,该方法优于当前单个 RGB 图像基础的三维目标检测技术水平。
Mar, 2019
通过提出一个伪立体式的三维检测框架,包括三种新颖的虚拟视图生成方法和基于视差动态卷积的特征滤波,从单张图片中进行三维物体检测,该方法在 KITTI-3D 基准测试中获得了车辆、行人和骑行者三个类别的第一名。
Mar, 2022