通过车载摄像头理解道路语义的鸟瞰视角
本文提出了一种语义感知变换的方法,将仪表板摄像机视图中的检测结果映射到场景的更广泛、俯视的占用图中,通过大量的合成数据和深度神经网络的训练实现,结果表明该模型能够在真实世界的数据上进行泛化。
Jun, 2017
本文综述了关于 Bird's-eye-view(BEV)感知的最新研究工作,探讨了多传感器融合、BEV 视角下物体检测与定位等关键问题,并介绍了一系列实用的指南和工具来提高 BEV 任务的性能,最后指出了该领域未来的研究方向。
Sep, 2022
自动驾驶系统的感知输出对于其他智能体和结构的空间推理和路径规划至关重要,基于摄像头图像的透视投影方法不适用于自动驾驶,因此需要使用其他方法来产生所需的地形俯视图像。
Sep, 2023
本文介绍了使用车载摄像头拍摄的 RGB 图像进行鸟瞰视角像素级别的物体语义分割的方法,为了解决这个问题,提出了一种新的两阶段感知管道,它明确预测像素深度,并将它们与像素语义结合起来进行有效的推断,同时,使用抽象的高层几何特征进行转移学习,方法能够提高 24% 的 mIoU。
Jun, 2020
提出了一个全局视角和局部先验知识相结合的双映射框架 (Bi-Mapper),包括异步相互学习策略和横跨空间损失函数 (ASL),旨在提高自动驾驶系统中道路场景语义理解的可靠性,并在 nuScenes 和 Cam2BEV 数据集上进行了验证。
May, 2023
本研究提出了一种自我监督的方法,可以利用来自前方视图的单个单目图像,生成 Bird's-Eye-View(BEV)语义地图,用于自动驾驶。该方法包括两种自我监督模式:隐式监督和显式监督。实验证明,这种自我监督方法在使用较少的直接监督的情况下可以达到与全监督方法相当的效果。
Feb, 2023
该论文提出了一种使用多个车载摄像头获取 360 度鸟瞰图像的方法,并利用神经网络进行分割和预测,以解决单目摄像头在环境感知中的距离估计问题。该方法包括一个语义分割和遮挡区域预测步骤,通过合成数据训练神经网络,实现了对真实世界数据的普遍适用。与透视变换法相比,该方法在合成数据实验中表现出了优越性。
May, 2020
自动驾驶车辆需要神经网络在感知方面能够适应不同的视角,以便在多种类型的车辆中使用而无需重复地进行数据收集和标注。本研究通过大量实验发现,现有的感知模型对于摄像机视角的变化非常敏感,因此提出了一种方法来在车辆类型之间进行缩放,从而避免了额外的数据收集和标注成本,并通过引入新颖的视图合成技术,训练适用于各种车辆类型的鸟瞰图分割模型。
Sep, 2023
自动驾驶汽车的导航系统需要准确理解周围环境,本文提出了一个替代方法,通过生成场景的顶视图,提取其他车辆相对于自我车辆的距离和方向,同时通过将透视图 RGB 图像转换为鸟瞰地图的方法,有效捕捉了自动驾驶汽车所需的重要环境信息。
Nov, 2023