Jul, 2023

面向道路场景光场语义分割的全视孔融合

TL;DR利用全景光场相机的丰富角度和空间信息提高自动驾驶领域中的图像语义分割,但角度信息过多,在智能车辆的有限硬件资源上变得压倒性。因此,提出了一种全景孔径融合模型(OAFuser),从中心视图的密集语境中获取代表性信息,并从子孔径图像中发现角度信息生成语义一致结果。提出了一个简单而非常有效的子孔径融合模块(SAFM),将子孔径图像嵌入角度特征,避免了网络传播期间的特征丢失以及来自全景光场相机的冗余信息。此外,还提出了中心角度矫正模块(CARM)来处理视点之间不匹配的空间信息,防止由不对称信息引起的特征重叠。我们提出的OAFuser在UrbanLF-Real和-Syn数据集上取得了最先进的性能,并在UrbanLF-Real扩展数据集上取得了84.93%的mIoU的新纪录,增益为+4.53%。OAFuser的源代码将在此URL公开发布。