Zero-BEV:任何第一人称模态的零射击投影到 BEV 地图
本文介绍了使用车载摄像头拍摄的 RGB 图像进行鸟瞰视角像素级别的物体语义分割的方法,为了解决这个问题,提出了一种新的两阶段感知管道,它明确预测像素深度,并将它们与像素语义结合起来进行有效的推断,同时,使用抽象的高层几何特征进行转移学习,方法能够提高 24% 的 mIoU。
Jun, 2020
该研究提出了一种无监督学习方法,从单眼正视图像生成语义鸟瞰地图,以在自动驾驶的各种决策任务中提供强大的遮挡推理能力,其使用了 1% 的标注数据和无额外标记数据,在 KITTI-360 和 nuScenes 数据集上表现与现有最先进的方法相当。
May, 2024
该论文提出了一种使用多个车载摄像头获取 360 度鸟瞰图像的方法,并利用神经网络进行分割和预测,以解决单目摄像头在环境感知中的距离估计问题。该方法包括一个语义分割和遮挡区域预测步骤,通过合成数据训练神经网络,实现了对真实世界数据的普遍适用。与透视变换法相比,该方法在合成数据实验中表现出了优越性。
May, 2020
本文探讨了采用鸟瞰图在 360 度视觉地点识别(VPR)中的优势,提出了一种利用 BEV 表示的新型网络架构,该架构将视觉线索和空间感知进行桥接,并在两个数据集上进行了验证。
May, 2023
本研究提出了一种自我监督的方法,可以利用来自前方视图的单个单目图像,生成 Bird's-Eye-View(BEV)语义地图,用于自动驾驶。该方法包括两种自我监督模式:隐式监督和显式监督。实验证明,这种自我监督方法在使用较少的直接监督的情况下可以达到与全监督方法相当的效果。
Feb, 2023
本文综述了关于 Bird's-eye-view(BEV)感知的最新研究工作,探讨了多传感器融合、BEV 视角下物体检测与定位等关键问题,并介绍了一系列实用的指南和工具来提高 BEV 任务的性能,最后指出了该领域未来的研究方向。
Sep, 2022
将鸟瞰视图中的语义分割任务分解为 BEV 地图重建和 RGB-BEV 特征对齐两个阶段,通过将 RGB 输入图像映射到第一阶段的 BEV 潜在空间,并在特征级别上直接优化两个视图之间的相关性,实现了复杂和具有挑战性场景的有效处理。
Apr, 2024
通过设计评估鲁棒性的 RoboBEV 基准套件,我们评估了包括检测、地图分割、深度估计和占用预测在内的 33 种 BEV 感知模型的性能,并观察到在分布内数据表现良好的模型对分布外挑战具有鲁棒性,同时也强调了预训练和无深度 BEV 变换等策略在提高对分布外数据鲁棒性方面的有效性。
May, 2024
提出了一种能够在自动驾驶中改善鲁棒性和准确感知的 M-BEV 感知框架,通过随机遮挡和重建相机视图进行端到端训练,从而有效解决一个或多个视图摄像头无法工作的现实场景问题。
Dec, 2023