深度无监督感知分组
人类视觉识别系统显示了惊人的能力,能够将视觉信息压缩为一组包含丰富表示的令牌,无需标签监督。本文提出了感知分组标记器,一种完全依赖于分组操作的模型,用于提取视觉特征和进行自监督表示学习,其中一系列分组操作被用于迭代地假设像素或超像素的上下文,以改进特征表示。我们表明,与最先进的视觉架构相比,所提出的模型在性能上具有竞争力,并且具有自适应计算和可解释性等可取的属性。具体而言,感知分组标记器在 ImageNet-1K 自监督学习基准测试中以线性探测评估获得 80.3%的性能,标志着这一范例的新进展。
Nov, 2023
通过数学演示,在现实假设下,神经噪声可以用于分离对象,并且在 DNN 网络中添加噪声使其能够对图像进行分割,从而产生与人类感知中观察到的感知分组现象一致的分段性能。
Sep, 2023
本文提出了一种从原始视觉分组能力启动视觉表示学习的框架,操作化分组通过轮廓检测器,该检测器将图像分割成区域,并将这些区域合并成树形层次结构。实验表明,我们的方法朝着通用预训练方法的方向发展,其对下游任务有益,并可用于语义区域搜索和基于视频的对象实例跟踪。
Dec, 2020
本文介绍了一种称为深度分组模型的方法,该方法可以将视觉感知组合过程融入到最新的卷积神经网络中进行图像分割,并在基于 Broden + 数据集的统一感知解析任务中实现了最优结果。
Mar, 2020
我们提出了一个用于无监督语义分割的轻量级聚类框架,基于自监督视觉变换器的注意特征,通过将这些特征聚类成少量的聚类中心,我们能够将前景和背景的图像补丁分开成不同的组。我们的框架在无监督语义分割方面展示了很大的潜力,并在 PASCAL VOC 和 MS COCO 数据集上取得了最新的成果。
Nov, 2023
本文提出了一个像素级聚类框架,用于将图像分割成区域,而无需使用地面真值标注。该框架包括特征嵌入模块、特征统计计算模块、图像重建和超像素分割,以实现准确的无监督分割。此外,我们提出了一种训练策略,利用每个超像素内部一致性、相邻超像素间的相似性 / 差异性和图像结构相似性。我们还提出了一种后处理方法,以避免由基于超像素的损失引起的过分分割。最后,我们扩展了所提方法用于无监督语义分割。通过在三个公开数据集上进行实验,我们证明了所提框架的有效性。实验结果表明,所提框架优于先前的最先进方法。
Oct, 2023
本文探讨了从无标签场景中心数据中学习视觉表示的问题,提出了一种的基于对比学习和数据驱动语义槽的语义聚类和表示学习方法,通过此方法能够更好的区分特征和语义相符的像素点,以此来有效地分解场景中的像素群组,并显著提高目标检测、实例分割和语义分割等下游应用的效果。
May, 2022
本研究旨在开发一种通用的素描分组器,首先提出了最大的素描感知分组(SPG)数据集,构建了一个深度通用感知分组模型通过更好的损失函数优化达到了良好的模型性能,并证明了该模型对于许多素描分析任务的有效性。
Aug, 2018
采用完全可区分的无监督深度聚类方法,仅使用未标记的对象提议,无需个体分类标签来学习语义类,建立特征表示并同时学习聚类。目前该方法仅提供分割对象性掩膜的监督,但该方法可扩展为使用无监督的目标性生成机制,从而使该方法完全无监督。
Jan, 2018
本文提出了一种基于像素特征学习的数据驱动的无监督分层语义分割方法,使用同一图像的多视角协同分割来启动特征学习,加入粗细层次间的聚类变换器以确保组织层次间的语义一致性,该方法被称作 'Hierarchical Segment Grouping',在五个主流目标和场景测评基准上表现良好。
Apr, 2022