HDNET:利用高清地图进行三维物体检测
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
本文提出了一种新颖的三维物体检测器,利用雷达和摄像头实现非常精确的定位,设计了一种端到端可学习的架构,利用连续卷积在不同分辨率级别上融合图像和雷达特征图,其实现了对离散状态图像特征和连续几何信息的编码,从而能够基于多种传感器设计新颖,可靠且高效的端到端可学习的三维目标检测器,实验结果显示,在 KITTI 和大规模三维目标检测基准测试中,相对于现有技术有显著的提高。
Dec, 2020
本研究提出了一种使用单目摄像头和 LiDAR 数据结合的机器学习技术,通过以国际排名领先的二维物体探测器生成的锥体区域来分割 LiDAR 点云,从而检测运动平台周围的车辆的 3D 边界框参数, 最终验证集准确率达到 87.1%。
May, 2021
提出了一种基于多摄像头的 3D 对象检测框架,使用基于上下文注意力的网络,直接在 3D 空间中进行边界框的预测,实现了全球最佳性能。
Oct, 2021
本文提出一种基于卷积神经网络将基于图像的深度图转换为假激光雷达(pseudo-LiDAR)表示的方法,从而使得使用便宜的单 ocular 或立体成像数据进行 3D 物体检测时的精度在 KITTI 数据集上大幅提高到了 22% 到 74%。
Dec, 2018
本研究提出了一种利用分割信息指导检测过程的多任务框架,该框架联合执行三维物体检测和全景分割,可利用多视角信息解决每个投影视图的缺陷,并通过前景语义信息和中心密度热力图来提示物体的可能框中心位置。在 nuScenes 数据集上进行的大量实验表明,该方法提供了显著的性能提升,基于单级 CenterPoint 3D 物体检测网络的所提出方法在 nuScenes 3D 检测基准上取得了 67.3 NDS 的最新性能。
Mar, 2022
在自动驾驶中,相较于 2D 检测,3D 检测能够提供更精确的信息用于路径规划和运动估计。然而,由于缺乏几何信息,单一和多视角图像以及来自相机的深度图在检测精度上相对较低。本文提出了 SeSame:一种基于点的语义特征的新表达方法,以确保基于 LiDAR 的 3D 检测具有充足的语义信息。实验证明,我们的方法在 KITTI 物体检测基准测试中在不同难度级别和车辆上优于以前的最先进方法。
Mar, 2024
本文提出了一种利用多个相关任务进行准确多传感器 3D 目标检测的方法,并展示了一种全面的可学习体系结构,用于推理 2D 和 3D 目标检测以及地面估计和深度完成,在各个层面上融合信息有助于学习更好的表示。 实验表明,所有这些任务是互补的,可以在保持实时性的同时,在 2D、3D 和 BEV 目标检测方面领先 KITTI 基准。
Dec, 2020
本文研究使用语义丰富的图像和深度特征进行 RGB-D 图像目标检测问题。我们提出了一种新的地心嵌入深度图像的方法,该方法编码了每个像素相对于地面的高度和重力角度,以及水平视差。我们证明了这种地心嵌入方法比使用原始深度图像更适用于使用卷积神经网络进行特征表示学习。最后,我们使用对象检测器的输出在现有的超像素分类框架中进行语义场景分割,并在我们研究的对象类别中实现了 24%的相对改进。
Jul, 2014
提出了一种基于 MoVi-3D 的深度学习架构,使用几何信息生成虚拟视图对单目 RGB 进行 3D 物体检测,与传统方法相比,成功削减了视觉差异性导致的深度学习复杂度,从而取得了 KITTI3D 基准测试的新的最优结果。
Dec, 2019