MVLidarNet: 使用多视角实现自动驾驶的实时多类场景理解
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
本文提出了一种基于 LiDAR 传感器和多任务网络的感知系统,用于自主驾驶中的目标检测和道路识别,取得了良好的实验效果和在线定位能力。
Mar, 2021
LidarMultiNet 利用深度神经网络,将 3D 语义分割、物体检测和全景分割等核心 LiDAR 感知任务统一在单一框架中,实现了最佳表现。
Jun, 2022
LiDAR 在自动驾驶中具有重要作用,本文提出了一种基于 LiDAR 的实时多任务卷积神经网络,用于对象检测、语义分割和运动分割,并在汽车级嵌入式平台上实现了 3ms 延迟,取得了语义分割和运动分割的最新成果以及 3D 物体检测的接近最新成果。
Jul, 2023
本文提出了一种利用多视角 LiDAR 返回和摄像头图像的终端到终端物体检测和轨迹预测方法,使用 Bird's-Eye View (BEV) 网络的状态 -of-the-art 融合历史 LiDAR 数据和高清地图的体素化特征来执行检测和预测任务。在此基础上,我们使用 LiDAR Range-View (RV)功能扩展了此模型,使用 LiDAR 原始信息的非量化表示。RV 特征图被投影到 BEV 中,并与计算自 LiDAR 和高清地图的 BEV 特征融合。最终输出检测和轨迹,这是一个单一的可训练终端到终端网络。在实际的无人驾驶车辆数据和公共 nuScenes 数据集上,所提出的多视角融合方法的表现都优于最先进的技术,并且增加了较少的计算成本。
Aug, 2020
本文介绍了一种基于 LiDAR 的多任务网络 LidarMultiNet,它将 LiDAR 的三个主要感知任务:3D 物体检测,语义分割和全景分割统一起来。通过使用全局上下文汇聚(GCP)模块提取全局上下文特征,任务特定的头被添加到网络的顶部执行三种任务。LidarMultiNet 在 Waymo Open Dataset 和 nuScenes 数据集 上进行了广泛的测试,表明主要 LiDAR 感知任务可以在单个强网络中统一,并在既有 API 上取得最佳结果。
Sep, 2022
通过使用激光雷达传感器数据,我们提出了一种名为 MultiXNet 的自动驾驶汽车感知和预测方法,可处理多种交通行为,包括多模态概率分布和轨迹精细矫正等,结果表明它优于现有的最先进方法。
Jun, 2020
本研究提出了一种利用分割信息指导检测过程的多任务框架,该框架联合执行三维物体检测和全景分割,可利用多视角信息解决每个投影视图的缺陷,并通过前景语义信息和中心密度热力图来提示物体的可能框中心位置。在 nuScenes 数据集上进行的大量实验表明,该方法提供了显著的性能提升,基于单级 CenterPoint 3D 物体检测网络的所提出方法在 nuScenes 3D 检测基准上取得了 67.3 NDS 的最新性能。
Mar, 2022
自主驾驶的关键要求是高精度、轻量化和实时响应,本文提出了一种自适应、实时和轻量化的多任务模型,能够同时处理目标检测、行驶区域分割和车道检测任务,并且无需特定定制结构或损失函数。该模型在 BDD100k 数据集上取得了竞争性的结果,尤其在可视化输出方面。此外,通过引入真实道路数据集评估了模型在真实场景中的性能,表现出超出竞争对手的优越性能,证明了模型不仅具备竞争性能,而且更加灵活快速。
Oct, 2023
提出了一种名为 MVFuseNet 的方法,在利用脉冲激光雷达(LiDAR)数据时,通过多视图联合学习以及多尺度特征提取的方式,实现了目标检测和运动预测,取得了最新的技术成果,并且验证了该方法在大范围的自动驾驶数据集上可以很好地拓展并保持实时性能。
Apr, 2021