将车辆映射到鸟瞰图中的学习
自动驾驶汽车的导航系统需要准确理解周围环境,本文提出了一个替代方法,通过生成场景的顶视图,提取其他车辆相对于自我车辆的距离和方向,同时通过将透视图 RGB 图像转换为鸟瞰地图的方法,有效捕捉了自动驾驶汽车所需的重要环境信息。
Nov, 2023
通过使用车载摄像头在线估计语义化的鸟瞰图,本文研究了自主导航过程中的场景理解,包括图像级别理解、鸟瞰图级别理解和时间信息聚合。作者提出的新架构在鸟瞰图理解方面显著优于现有技术水平。
Dec, 2020
本文提出了一种基于车载摄像头图像的道路布局推断模型,同时构建了一个路况数据集,可以将导航地图的元数据与 Google 街景图像匹配以提供标签,并利用深度卷积网络训练该模型,结果表明该方法可用于提升基础设施安全性。
Nov, 2016
该论文提出了一种使用多个车载摄像头获取 360 度鸟瞰图像的方法,并利用神经网络进行分割和预测,以解决单目摄像头在环境感知中的距离估计问题。该方法包括一个语义分割和遮挡区域预测步骤,通过合成数据训练神经网络,实现了对真实世界数据的普遍适用。与透视变换法相比,该方法在合成数据实验中表现出了优越性。
May, 2020
本研究提出了一种自我监督的方法,可以利用来自前方视图的单个单目图像,生成 Bird's-Eye-View(BEV)语义地图,用于自动驾驶。该方法包括两种自我监督模式:隐式监督和显式监督。实验证明,这种自我监督方法在使用较少的直接监督的情况下可以达到与全监督方法相当的效果。
Feb, 2023
自动驾驶车辆需要神经网络在感知方面能够适应不同的视角,以便在多种类型的车辆中使用而无需重复地进行数据收集和标注。本研究通过大量实验发现,现有的感知模型对于摄像机视角的变化非常敏感,因此提出了一种方法来在车辆类型之间进行缩放,从而避免了额外的数据收集和标注成本,并通过引入新颖的视图合成技术,训练适用于各种车辆类型的鸟瞰图分割模型。
Sep, 2023
提出了一个全局视角和局部先验知识相结合的双映射框架 (Bi-Mapper),包括异步相互学习策略和横跨空间损失函数 (ASL),旨在提高自动驾驶系统中道路场景语义理解的可靠性,并在 nuScenes 和 Cam2BEV 数据集上进行了验证。
May, 2023
自动驾驶无需高清地图,但需要更高水平的场景理解能力。在这项竞赛中,使用多角度相机图像和标清地图来探索场景推理能力的边界。通过加入地图编码预训练和使用 YOLOX 等算法,我们对交通要素进行了更精准的检测,最终实现了 0.58 的 OLUS 评分。
Jun, 2024
通过将单目摄像头录制的车载视频进行简单变换,将观察对象投影到从鸟瞰角度看的平面视图上,从而能够在深度神经网络的支持下,通过检测车辆和行人的位置及方向来实现自动控制,其中 3D 物体检测等技术的应用能够显著减少碰撞事故。
May, 2019