通过联合物体 - 部分表示实现任务对齐的部分感知全景分割
本研究提出了 Part-aware Panoptic Segmentation(PPS)这个新的场景理解任务,旨在多层次把场景理解和部件理解统一起来,并提出了一种新的评估指标,即 Part-aware Panoptic Quality(PartPQ),通过在两个常用数据集上进行一致的注释,比较了现有的几种方法在该任务上的表现,实验结果证实了任务的有效性及多层次抽象的重要性。
Jun, 2021
我们提出了一种联合全景部分融合(JPPF)方法,它通过有效地结合三种单独的分割方法来获得全景 - 部分分割,该方法具有统一的模型,平衡的组合,可以在多个数据集上进行通用化评估。
Nov, 2023
本文旨在设计首个端到端的统一方法 Panoptic-PartFormer,通过模型事物、材料和部分作为对象查询直接学习统一的掩模预测和分类问题,设计解耦解码器分别生成部分特征和物体 / 材料特征,并提出同时和迭代地利用所有查询和相应特征进行推理。该模型在 Cityscapes PPS 和 Pascal Context PPS 数据集上实现了新的最先进结果,与 ResNet50 骨干和 Swin Transformer 相结合在 Pascal Context PPS 数据集上实现了 10%的改进,并取得了至少 70%GFlops 和 50%参数减少。
Apr, 2022
该研究提出了一种名为 Panoptic-PartFormer 的端到端统一框架,结合了全景与部件分割这两个任务,并在此基础上提出了一种新的衡量标准 Part-Whole Quality,同时引入了一种掩膜交叉注意力机制以进一步提高部分分割质量。
Jan, 2023
自主机器人在医院的辅助任务中的应用有可能解放合格员工,提高病人护理质量。然而,在医院环境中存在大量变形和透明物体,这对基于视觉感知系统带来重大挑战。我们提出了 EfficientPPS,一种用于部分感知全景分割的神经结构,可为机器人提供语义丰富的视觉信息以进行抓取和操纵任务。我们还提出了一种无监督数据收集和标记方法,以减少人工参与训练过程的需求。EfficientPPS 在包含真实医院物品的数据集上进行评估,并在与协作机械臂抓取透明输液袋方面表现出了强大和高效。
Dec, 2023
提出一种名为 amodal panoptic segmentation 的任务,旨在同时预测 stuff 类可见区域的像素级别语义分割标签和 thing 类可见区域以及遮挡区域的实例分割标签。扩展两个基准数据集以便研究新任务,在公开可用的 KITTI-360-APS 和 BDD100K-APS 中提供像素级别的 amodal panoptic 分割标签。提出了 APSNet 模型,它显式地建模了遮挡物和被遮挡物的复杂关系。在两个基准测试上达到了最先进的性能。
Feb, 2022
本文介绍了以往自我监督的学习方式大多聚焦于图像级的表示学习,不能为无监督图像分割等需要空间多样的表示的任务带来改进,通过自我监督学习物体部件提出了新的解决途径,并结合目前趋势的 Vision Transformer,利用稠密聚类任务进行空间标记的微调,取得了在语义分割基准测试上超过 17%-3% 的最先进结果,且在完全无监督分割方面也具有重大潜力。
Apr, 2022
本文提出了自监督深度学习方法,通过多种损失函数使分割结果既有几何的聚焦性,又能在不同物体实例之间保持语义一致性,实现即将物体分割的任务。研究表明,与现有的自监督技术相比,该方法能够产生更具语义一致性的分段,并且紧贴物体边界。
May, 2019