全景分割
本研究提出了 Part-aware Panoptic Segmentation(PPS)这个新的场景理解任务,旨在多层次把场景理解和部件理解统一起来,并提出了一种新的评估指标,即 Part-aware Panoptic Quality(PartPQ),通过在两个常用数据集上进行一致的注释,比较了现有的几种方法在该任务上的表现,实验结果证实了任务的有效性及多层次抽象的重要性。
Jun, 2021
本文提出了一种名为 Video Panoptic Segmentation 的新型视觉识别任务,同时提出了两个视频全景数据集,以及一种 VPSNet 网络,在 VPQ 度量下,在 Cityscapes-VPS 和 VIPER 数据集上实现了最先进的结果。
Jun, 2020
本文提出了一种用于全景分割的深度神经网络,将语义分割与实例分割任务联合起来,从而在单次计算中为输入图像的每个像素提供类标签和唯一对象标识符,并且通过增强信息共享和合并启发式方法,单个网络的性能提高,如在 Cityscapes 上可获得 45.9 的 PQ 分数。
Feb, 2019
该论文提出了一种新型的端对端网络,能够高效地预测实例和物体分割,并引入了一种新的空间排名模块以处理预测实例之间的遮挡问题。在 COCO Panoptic 基准测试上取得了可喜的成果。
Mar, 2019
提出一种名为 amodal panoptic segmentation 的任务,旨在同时预测 stuff 类可见区域的像素级别语义分割标签和 thing 类可见区域以及遮挡区域的实例分割标签。扩展两个基准数据集以便研究新任务,在公开可用的 KITTI-360-APS 和 BDD100K-APS 中提供像素级别的 amodal panoptic 分割标签。提出了 APSNet 模型,它显式地建模了遮挡物和被遮挡物的复杂关系。在两个基准测试上达到了最先进的性能。
Feb, 2022