EgoVM: 利用轻量级矢量化地图实现精确的自我定位
本文提出了一种基于多视角摄像机图像的端到端视觉语义定位神经网络 BEV-Locator,并通过大规模 nuScenes 和 Qcraft 数据集的实验结果证明该方法能够有效地关联来自多视角图像和全局语义地图的跨模态信息,可以在多种场景下估计车辆姿态,实验结果表明其横向、长向平移和航向角度的平均绝对误差分别为 0.052m,0.135m 和 0.251 度。
Nov, 2022
我们提出了一种用于自动驾驶中向量地图生成的模块化流水线,通过采用鲁棒的俯视语义地图,并利用 MapTRv2 解码器将其转换为向量地图,从而显著提高了模型的泛化性能。在未经训练的传感器配置数据集上进行的评估结果表明,我们的模型泛化能力明显优于最先进的方法。
Apr, 2024
本文提出了一种基于多个传感器的语义定位算法,利用车道,交通标志和车辆动态等信息,以贝叶斯滤波框架为基础,实现对稀疏语义地图的鲁棒定位,相较于传统基于几何学和 LiDAR 强度的定位器所需的储存空间降低了数个数量级,并且证明了其在 312 公里公路数据集上能够获得 0.05m 的横向精度和 1.12m 的纵向精度。
Aug, 2019
提出了一种新颖的轻量级视觉语义定位算法,通过稳定的语义特征代替低级纹理特征,结合离线构建的语义地图和在线的数据关联实现实时的自动驾驶定位。实验结果表明,该方法在各种自动驾驶定位任务中是可靠且实用的定位解决方案。
Jun, 2024
提出了一种名为 U-BEV 的神经网络架构,通过多个高度层次的场景推理和 SD-map 数据的可微模板匹配,有效改善了车辆重定位性能。该方法在 nuScenes 数据集上的实验结果显示,相较于其他相似复杂度的基于 BEV 和 Transformer 的方法,综合性能提高了 1.7-2.8 mIoU,重现率提高了超过 26%。
Oct, 2023
本文提出了一种面向实时性能的可扩展视觉定位方法,该方法使用自我监督方法学习紧凑的路图像表示,结合车辆本体运动得出高精度位置估计,在挑战性的城市环境中有效地减少了定位误差一个数量级。
May, 2019
本文提出了一种名为 NeMO 的新型范例,通过使用可读写的大地图、基于学习的融合模块和两者之间的交互机制来生成本地地图,该方法支持更长的时间序列融合和长程的 bird's-eye 视图本地地图生成,并通过 NuScenes 和 BDD-Map 数据集的实验,证明了 NeMO 优于最先进的地图分割方法。
Jun, 2023
提出了一个全局视角和局部先验知识相结合的双映射框架 (Bi-Mapper),包括异步相互学习策略和横跨空间损失函数 (ASL),旨在提高自动驾驶系统中道路场景语义理解的可靠性,并在 nuScenes 和 Cam2BEV 数据集上进行了验证。
May, 2023
本文介绍了一种新颖的方法来同时预测自动驾驶中车辆的位置和规模,这主要是通过使用多流递归神经网络编码器 - 解码器模型来实现,在该模型中,密集的光流加入了捕捉运动和外观变化信息的能力。此外,本文还发现明确建模车辆的未来运动可以提高预测准确性。
Sep, 2018
本研究提出了一个名为 VectorMapNet 的端到端矢量化高清地图学习管道,它可以利用传感器观测数据预测出鸟瞰图中稀疏的折线。该管道可以明确地建模地图元素之间的空间关系,并生成对自主驾驶任务友好的矢量化高清地图。实验表明,VectorMapNet 在 nuScenes 和 Argoverse2 数据集上的地图学习性能优于以前的最先进方法,MAP 分别提高了 14.2 和 14.6。
Jun, 2022