场景理解的 Cityscapes-Panoptic-Parts 和 PASCAL-Panoptic-Parts 数据集
本研究提出了 Part-aware Panoptic Segmentation(PPS)这个新的场景理解任务,旨在多层次把场景理解和部件理解统一起来,并提出了一种新的评估指标,即 Part-aware Panoptic Quality(PartPQ),通过在两个常用数据集上进行一致的注释,比较了现有的几种方法在该任务上的表现,实验结果证实了任务的有效性及多层次抽象的重要性。
Jun, 2021
介绍了扩展了 nuScenes 数据集的大规模全景 nuScenes 基准数据集,以便对动态城市环境的全景场景理解方法进行研究和评估,同时提出了各种分割和跟踪任务的强基线方法,并提出了面向实例的新型 PAT 指标,解决了现有指标的局限性。
Sep, 2021
为解决现有数据集不能很好地捕捉真实城市场景的复杂性,我们引入了 Cityscapes—— 一个基准套件和大规模数据集,用于像素级和实例级语义标注的方法的训练和测试。
Apr, 2016
本文提出了一种用于全景分割的深度神经网络,将语义分割与实例分割任务联合起来,从而在单次计算中为输入图像的每个像素提供类标签和唯一对象标识符,并且通过增强信息共享和合并启发式方法,单个网络的性能提高,如在 Cityscapes 上可获得 45.9 的 PQ 分数。
Feb, 2019
本文提出了一种名为 Video Panoptic Segmentation 的新型视觉识别任务,同时提出了两个视频全景数据集,以及一种 VPSNet 网络,在 VPQ 度量下,在 Cityscapes-VPS 和 VIPER 数据集上实现了最先进的结果。
Jun, 2020
本研究提出了一种基于 CNN 的新型架构,可以进行端到端的训练,以提供无缝的场景分割结果。该网络结构采用了一种新颖的分割头,将由特征金字塔网络生成的多尺度特征与由轻量级 DeepLab 模块传递的上下文信息进行了无缝整合,从而预测一致的语义分割和检测结果。此外,研究人员还提出了一种替代 panoptic 度量的方法,克服了评估非实例类别时的局限性。通过在三个具有挑战性的街景数据集上测试,即 Cityscapes、Indian Driving Dataset 和 Mapillary Vistas,我们的网络架构取得了最先进的结果。
May, 2019
该研究使用多个视角和多种数据模式,提供全景视角和个人视角的场景理解数据集,以模拟真实世界中的信息访问方式,并通过 5 个不同的场景理解任务对数据集进行了评估,希望为综合场景理解提供更广泛的范围和多元化视角。
Apr, 2024
本文介绍了一个由三个英国城市中 7.6 平方公里的城市景观组成的大规模城市照相测量点云数据集,其中每个 3D 点都被标记为 13 个语义类别之一,并通过基于现有算法的综合分析来识别了几个关键问题。
Sep, 2020
我们提出了全景场景完成(PSC)的任务,它扩展了最近流行的语义场景完成(SSC)任务,通过实例级别的信息产生对三维场景的更丰富理解。我们的 PSC 提议利用基于蒙版的混合技术处理来自稀疏多尺度完成的非空体素。与 SSC 文献忽略机器人应用中至关重要的不确定性不同,我们提出了一种有效的集成方法来估计体素和实例的不确定性,同时提高性能并获得更好的不确定性,且计算成本较低。此外,我们引入了一种聚合排列不变蒙版预测的技术。我们的实验证明,我们的方法在全景场景完成和不确定性估计方面优于所有基线算法,且在三个大规模自动驾驶数据集上进行了测试。我们的代码和数据可在此 https URL 中获取。
Dec, 2023