利用增强透视反演映射改善对道路场景的理解
该论文提出了一种使用多个车载摄像头获取 360 度鸟瞰图像的方法,并利用神经网络进行分割和预测,以解决单目摄像头在环境感知中的距离估计问题。该方法包括一个语义分割和遮挡区域预测步骤,通过合成数据训练神经网络,实现了对真实世界数据的普遍适用。与透视变换法相比,该方法在合成数据实验中表现出了优越性。
May, 2020
自动驾驶汽车的导航系统需要准确理解周围环境,本文提出了一个替代方法,通过生成场景的顶视图,提取其他车辆相对于自我车辆的距离和方向,同时通过将透视图 RGB 图像转换为鸟瞰地图的方法,有效捕捉了自动驾驶汽车所需的重要环境信息。
Nov, 2023
本文提出了一种语义感知变换的方法,将仪表板摄像机视图中的检测结果映射到场景的更广泛、俯视的占用图中,通过大量的合成数据和深度神经网络的训练实现,结果表明该模型能够在真实世界的数据上进行泛化。
Jun, 2017
提出基于前视单目图像的局部鸟瞰地图重建新框架,利用前向到俯视图像变换(FTVP)模块中的多尺度设计和周期性一致性约束,实现低成本高效的道路与汽车区域感知以及多类别场景理解。在公共基准测试中,该方法在道路布局估计,车辆占用估计和多类别语义估计任务中均达到了最先进的性能,并且在多类别语义估计中优于所有竞争对手。
Nov, 2022
自动驾驶车辆需要神经网络在感知方面能够适应不同的视角,以便在多种类型的车辆中使用而无需重复地进行数据收集和标注。本研究通过大量实验发现,现有的感知模型对于摄像机视角的变化非常敏感,因此提出了一种方法来在车辆类型之间进行缩放,从而避免了额外的数据收集和标注成本,并通过引入新颖的视图合成技术,训练适用于各种车辆类型的鸟瞰图分割模型。
Sep, 2023
自动驾驶系统的感知输出对于其他智能体和结构的空间推理和路径规划至关重要,基于摄像头图像的透视投影方法不适用于自动驾驶,因此需要使用其他方法来产生所需的地形俯视图像。
Sep, 2023
自动驾驶无需高清地图,但需要更高水平的场景理解能力。在这项竞赛中,使用多角度相机图像和标清地图来探索场景推理能力的边界。通过加入地图编码预训练和使用 YOLOX 等算法,我们对交通要素进行了更精准的检测,最终实现了 0.58 的 OLUS 评分。
Jun, 2024
本文提出了一种基于车载摄像头图像的道路布局推断模型,同时构建了一个路况数据集,可以将导航地图的元数据与 Google 街景图像匹配以提供标签,并利用深度卷积网络训练该模型,结果表明该方法可用于提升基础设施安全性。
Nov, 2016
本文提出了一种新的端到端架构,能够直接从任意数量的相机图像数据中提取场景的鸟瞰图表示,并将其整合成单一的场景表示,该模型能够学习如何融合所有相机的预测结果,并针对密集表示进行运动规划。
Aug, 2020
本文综述了关于 Bird's-eye-view(BEV)感知的最新研究工作,探讨了多传感器融合、BEV 视角下物体检测与定位等关键问题,并介绍了一系列实用的指南和工具来提高 BEV 任务的性能,最后指出了该领域未来的研究方向。
Sep, 2022