本研究主要针对无人车自主驾驶问题,通过领域自适应的方式解决了对 360 度视角全景图像中层次分割的无监督学习问题;通过新的数据集 DensePASS,以及基于关注机制的自适应算法框架 P2PDA 实现了从针孔图像到全景图像的专业语义分割。实验证明,该框架相比于其他无监督学习和全景图像分割方法,有着更高的准确率和更高的效率。
Oct, 2021
通过使用开放性全景分割任务,以及采用可变形适配器网络和随机全景等距投影数据增强方法,我们提出的 OOOPS 模型在三个全景数据集上均取得了令人瞩目的性能提升,特别是在野外环境 WildPASS 上达到了 + 2.2%,在室内环境 Stanford2D3D 上达到了 + 2.4%的平均交并比(mIoU)
Jul, 2024
本研究提出了一种处理全景图像的深度学习算法,通过样式和投影转换,重新训练和调整现有的算法,从单目全景图像中恢复场景深度和车辆的三维姿态,大大提高了无人驾驶汽车使用全景摄像头时的准确性。
Aug, 2018
本文采用领域适应的角度,针对 360 度车载相机图像的全景语义分割问题,提出了使用基于注意力机制的跨域全景语义分割框架,并公开了一个密集标注且包含有标注和无标注的全景图像数据集 DensePASS。在两个标准分割网络中使用我们的框架,相对 Mean IoU 会在 6.05% 和 11.26% 之间获得排名的提高。
Aug, 2021
本文提出了一种用于全景分割的深度神经网络,将语义分割与实例分割任务联合起来,从而在单次计算中为输入图像的每个像素提供类标签和唯一对象标识符,并且通过增强信息共享和合并启发式方法,单个网络的性能提高,如在 Cityscapes 上可获得 45.9 的 PQ 分数。
Feb, 2019
本研究提出了一种基于 CNN 的新型架构,可以进行端到端的训练,以提供无缝的场景分割结果。该网络结构采用了一种新颖的分割头,将由特征金字塔网络生成的多尺度特征与由轻量级 DeepLab 模块传递的上下文信息进行了无缝整合,从而预测一致的语义分割和检测结果。此外,研究人员还提出了一种替代 panoptic 度量的方法,克服了评估非实例类别时的局限性。通过在三个具有挑战性的街景数据集上测试,即 Cityscapes、Indian Driving Dataset 和 Mapillary Vistas,我们的网络架构取得了最先进的结果。
May, 2019
本文提出在未经校正的鱼眼图像上运行的多任务视觉感知网络来加强自动汽车系统的六个主要任务,其中包括深度估计,视觉测距,语义分割,动态分割,目标检测以及镜头污染检测,通过联合训练模型,在 KITTI 数据集上实现深度估计和姿态估计任务的最新结果。
Feb, 2021
该论文提出了一种新型的端对端网络,能够高效地预测实例和物体分割,并引入了一种新的空间排名模块以处理预测实例之间的遮挡问题。在 COCO Panoptic 基准测试上取得了可喜的成果。
Mar, 2019
本文提出了一种新颖的广基线全向立体算法,使用深度卷积神经网络从鱼眼图像计算密集深度估计,直接生成具有全 360 度覆盖的密集全向深度图,该算法的实验结果表明,在合成和实际数据集上,比传统的深度估计方法具有更高的准确性。
通过提出一种基于 Panoptic Lintention Net 的紧凑可穿戴全景分割系统,协助视障人士高效地获得环境中物品和场景的感知,使用 Lintention 注意模块快速建模长程关联,实现对现实场景的全景分割,获得了较稳定和显著的分割效果。
Mar, 2021