通过前向上视图投影实现单目 BEV 道路场景感知
本研究提出了两种简单而有效的模型(RoadBEV-mono 和 RoadBEV-stereo),分别使用单目和立体图像估计道路高程,在 Bird's-Eye-View 感知中实现对道路的可靠和准确重建。经实验证明,RoadBEV-mono 和 RoadBEV-stereo 的高程误差分别为 1.83cm 和 0.56cm,在单目图像的基础上,估计性能提高了 50%,这些模型在自动驾驶中具有实际应用的潜力,并为基于视觉的 Bird's-Eye-View 感知提供了有价值的参考。
Apr, 2024
该论文提出了一种使用多个车载摄像头获取 360 度鸟瞰图像的方法,并利用神经网络进行分割和预测,以解决单目摄像头在环境感知中的距离估计问题。该方法包括一个语义分割和遮挡区域预测步骤,通过合成数据训练神经网络,实现了对真实世界数据的普遍适用。与透视变换法相比,该方法在合成数据实验中表现出了优越性。
May, 2020
自动驾驶无需高清地图,但需要更高水平的场景理解能力。在这项竞赛中,使用多角度相机图像和标清地图来探索场景推理能力的边界。通过加入地图编码预训练和使用 YOLOX 等算法,我们对交通要素进行了更精准的检测,最终实现了 0.58 的 OLUS 评分。
Jun, 2024
采用鸟瞰图(BEV)描述自动驾驶中的三维场景难以描绘细粒度的三维结构,因此我们提出了三面图(TPV)表示法,并使用基于注意力机制的 TPV 编码器实现了显著的提升。模型可以通过稀疏监督有效预测语义占用,仅使用相机输入在 LiDAR 分割任务上可实现与基于 LiDAR 的方法相当的性能。
Feb, 2023
该研究提出了一种无监督学习方法,从单眼正视图像生成语义鸟瞰地图,以在自动驾驶的各种决策任务中提供强大的遮挡推理能力,其使用了 1% 的标注数据和无额外标记数据,在 KITTI-360 和 nuScenes 数据集上表现与现有最先进的方法相当。
May, 2024
本文提出了一种名为 MV-Map 的离线管道,能够有效地生成高清地图,并优化了离线管道的流程。通过聚合所有航空预测的帧,根据不确定性网络赋权重,实现了多视图一致性的增强。在 nuscenes 数据集上的实验证明了本文方法有效性的同时,也突显出将 HD-Map 生成过程转移至离线计算的重要性。
May, 2023
自动驾驶汽车的导航系统需要准确理解周围环境,本文提出了一个替代方法,通过生成场景的顶视图,提取其他车辆相对于自我车辆的距离和方向,同时通过将透视图 RGB 图像转换为鸟瞰地图的方法,有效捕捉了自动驾驶汽车所需的重要环境信息。
Nov, 2023
本文综述了关于 Bird's-eye-view(BEV)感知的最新研究工作,探讨了多传感器融合、BEV 视角下物体检测与定位等关键问题,并介绍了一系列实用的指南和工具来提高 BEV 任务的性能,最后指出了该领域未来的研究方向。
Sep, 2022
本研究提出了一种自我监督的方法,可以利用来自前方视图的单个单目图像,生成 Bird's-Eye-View(BEV)语义地图,用于自动驾驶。该方法包括两种自我监督模式:隐式监督和显式监督。实验证明,这种自我监督方法在使用较少的直接监督的情况下可以达到与全监督方法相当的效果。
Feb, 2023
本文提出了一种语义感知变换的方法,将仪表板摄像机视图中的检测结果映射到场景的更广泛、俯视的占用图中,通过大量的合成数据和深度神经网络的训练实现,结果表明该模型能够在真实世界的数据上进行泛化。
Jun, 2017