BroadBEV: 广览鸟瞰式地图构建的 LiDAR 与相机融合
本研究提出 BEVFusion,这是一种有效和通用的多任务多传感器融合框架,通过在共享的鸟瞰图表示空间中统一多模态特征,从根本上支持不同的 3D 感知任务,并在 nuScenes 上创立了新的技术水平
May, 2022
本文提出了一种名为 Graph BEV 的稳健融合框架,通过解决 LiDAR 和相机 BEV 特征之间的不准确对齐问题,实现了最先进的性能,mAP 为 70.1%,超过了 BEV Fusion 1.6%,在存在不对齐噪声的条件下超过 BEV Fusion 8.3%。
Mar, 2024
通过利用多传感器融合的方法,我们提出了一种名为 CoBEVFusion 的框架,将 LiDAR 和相机数据融合为鸟瞰图(BEV)表示,以改善协同感知在自动驾驶车辆中的安全性和可靠性。我们的 DWCA LiDAR-camera fusion 模型在 BEV 语义分割和 3D 物体检测任务中表现优于单模态数据和最先进的 BEV 融合模型。同时,CoBEVFusion 整体协同感知架构的性能与其他协同感知模型相当。
Oct, 2023
通过训练基于多视角鸟瞰图(BEV)的学生检测器来模仿经过训练的基于 LiDAR 的教师检测器的特征,从而提高多视角 BEV 的表示学习,并通过有效的平衡策略和多尺度层的时间融合实现知识传输,实验证明该方法在多个多视角 BEV 模型上显著改善了学生模型,达到了流行基准 nuScenes 的最新性能。
Sep, 2023
本文提出了一种利用多视角 LiDAR 返回和摄像头图像的终端到终端物体检测和轨迹预测方法,使用 Bird's-Eye View (BEV) 网络的状态 -of-the-art 融合历史 LiDAR 数据和高清地图的体素化特征来执行检测和预测任务。在此基础上,我们使用 LiDAR Range-View (RV)功能扩展了此模型,使用 LiDAR 原始信息的非量化表示。RV 特征图被投影到 BEV 中,并与计算自 LiDAR 和高清地图的 BEV 特征融合。最终输出检测和轨迹,这是一个单一的可训练终端到终端网络。在实际的无人驾驶车辆数据和公共 nuScenes 数据集上,所提出的多视角融合方法的表现都优于最先进的技术,并且增加了较少的计算成本。
Aug, 2020
通过将原始雷达数据编码为点云并将图像特征转化到鸟瞰空间中,我们引入了一种名为 BEVCar 的新型方法,用于联合 BEV 对象和地图分割,并且在 nuScenes 数据集上的实验表明,BEVCar 在环境条件复杂和远距离物体分割方面的性能优于现有技术。
Mar, 2024
该论文介绍了一种用于卫星和街景图像对的细粒度建筑属性分割的新方法,通过引入鸟瞰图方法解决了传统方法中建筑物立面特征获取的局限性,并通过新的卫星引导的投影模块优化了传统方法中特征分布不均匀的问题。该方法在来自多个城市的四个跨视图数据集上取得了显著的改进,与最先进的基于卫星和跨视图的方法相比,平均 mIOU 提高了 10.13% 和 5.21%。
Apr, 2024
本文综述了关于 Bird's-eye-view(BEV)感知的最新研究工作,探讨了多传感器融合、BEV 视角下物体检测与定位等关键问题,并介绍了一系列实用的指南和工具来提高 BEV 任务的性能,最后指出了该领域未来的研究方向。
Sep, 2022
本文提出了 CoBEVT,这是一个通用的多代理多摄像头感知框架,能够协同生成 BEV 地图预测。在 V2V 感知数据集 OPV2V 上的广泛实验表明,CoBEVT 实现了合作 BEV 语义分割的最先进性能。此外,CoBEVT 还可应用于其他任务,包括单代理多摄像头的 BEV 分割和多代理 LiDAR 系统的 3D 对象检测,实现了实时推理速度和最先进的性能。
Jul, 2022
本文提出一种新的空时融合 BEV 表征方法,可支持长距离融合,具有时变自适应权重,有效避免传统方法中的信息丢失和充分利用功能,同时实现地图分割任务的最优性能。
Jul, 2022