COCO-Stuff: 上下文中的物品和杂物类别
该研究论文提出了一种通过迁移学习从有标注的源数据集中获取知识并将其用于弱监督物体定位的方法,使用多实例学习框架将这些知识从像素级别传播到目标提案级别,并在三个目标数据集上进行了广泛的实验验证。
Mar, 2017
本研究旨在推进目标识别的最新进展,提出了一种数据集的形式,通过将目标识别的问题置于场景理解的更广泛背景下,聚集了包含常见物品的复杂日常场景的图像,并利用每个实例分割对物品进行标记以协助精确定位,该数据集包含 91 种 4 岁儿童容易识别的对象类型,有 328k 张图像和 250 万个标记实例。本文最终提供了一种基于可变形零件模型的边界框和分割检测结果的基线性能分析。
May, 2014
通过在卷积特征映射上采用掩蔽方法,本文提出了一种利用形状信息的方法来进行语义分割,实现了物体和场景的处理,并在 PASCAL VOC 数据集和新的 PASCAL-CONTEXT 数据集上展示了最先进的结果,具有令人信服的计算速度。
Dec, 2014
这篇论文提出了一种弱监督的模型,能够同时执行语义分割和实例分割任务,并使用图像级别标签弱监督 “stuff” 类别的分割,以及使用边界框弱监督 “thing” 类别的分割。通过分析注释质量和预测性能之间的关系,可以对数据集的创建有所启示。
Aug, 2018
该论文提出了一种端到端的学习方法,用于解决统一实例分割和语义分割任务,所提出的 TASCNet 模型使用共享的骨干网络特征图,通过单次前向传递来预测实例和语义分割,并通过全局的实例和语义二进制掩码来明确约束这两个输出分布,以强制实现跨任务的一致性。实验证明,所提出的统一网络在几个基准测试中与最先进的方法相当,并且在单个语义和实例分割任务上也表现出色。
Dec, 2018
最近几十年来,视觉学界在视觉识别方面取得了显著进展,其中一部分要归功于数据集基准的进步。本研究通过提高标注质量和扩大数据集范围,引入了 COCONut 数据集,该数据集包含 383K 张图像和超过 5.18M 个分割掩模,并通过特别精心设计的高质量掩模将语义、实例和全景分割的标注统一起来,为所有分割任务建立了一个稳健的基准。我们相信 COCONut 的发布将极大地促进社区评估新型神经网络的进展。
Apr, 2024
该研究论文提出了一种新的布局到图像生成模型,通过引入上下文感知特征变换模块和 Gram 矩阵,成功地解决了目前现有模型中存在的局限性,实现了 COCO-Thing-Stuff 和 Visual Genome 数据集上的最佳性能。
Mar, 2021
本文提出了一种名为 OCFusion 的轻量级方法来解决 Panoptic 分割中目标实例之间的重叠问题,该方法通过二元关联建模来实现物体实例的非重叠分割。该方法利用现有数据集注释自动推导出的真实关联进行训练,在 COCO 数据集上表现出最先进的效果,并在 Cityscapes panoptic 分割基准测试中展示了竞争力的结果。
Jun, 2019
本论文提出了一种新的基于弱监督和半监督框架的语义分割系统,可以处理包括对象、部分、杂物和属性在内的无限数量的概念,通过训练深度神经网络,产生视觉 - 语义嵌入,在完全注释的数据集上训练注意力驱动类无关分割网络。
Aug, 2018