自监督调整用于小样本分割
本篇文章介绍了一种简单但有效的自导学习方法,用于提高查询图像的分割性能,特别是在 few-shot 分割任务中。同时,也提出了一种新的交叉引导模块,用于改善多次采样的分割结果。实验结果表明,该方法在 PASCAL-5i 和 COCO-20i 数据集上可以达到新的最优性能。
Mar, 2021
本文提出了一种利用视觉 - 语言模型 CLIP 生成粗略掩模并迭代互相调整支持和查询图片的掩模预测的框架,实验结果表明该方法不仅在 PASCAL-5i 和 COCO-20i 数据集上优于最先进的弱监督方法,还能够取得与最近的有监督方法相当甚至更好的结果,并且具有出色的野外图像和非常规类别的泛化能力。
Mar, 2023
该研究提出了一种自我监督学习方法,通过引入 “混合和匹配” 步骤来提高语义图像分割任务的性能,该方法无需更多的数据和标签,并且在很多方面与有监督的预训练方法可以媲美甚至超过其性能。
Dec, 2017
通过语言信息进行语言指导的少样本语义分割,使用视觉 - 语言预训练模型和遮罩优化来生成高质量伪语义遮罩,引入分布式原型监督方法和互补相关匹配模块来指导模型挖掘支持和查询图像的精确语义关系。在两个基准数据集上的实验表明,我们的方法为语言指导的少样本语义分割建立了新的基准,并达到了与最近的视觉指导方法竞争的结果。
Nov, 2023
该研究提出了一种名为 guided networks 的机器学习方法,可以在极少的监督下自动完成图像分割任务,可开展多项任务而无需再进行优化,是一种在分割准确性和时间效率方面表现优越的方法。
May, 2018
该研究提出了一种基于元学习的新框架 MetaSegNet,通过全局和局部特征分支,在元学习中提取少样本语义分割的适当元知识,并将线性模型集成到 MetaSegNet 中,以实现一次性精确地多目标分割。实验结果表明,该方法在 K 路少样本语义分割任务中表现出良好的效果。
Nov, 2019
本研究使用无标签数据进行自我监督的预训练,通过迭代聚类和重新排序,并通过扩展对比优化损失来纳入类别层次意识,以在下游分类任务中进行少样本微调。实验证明,该方法在标准和跨域场景下的性能均优于其他方法,并取得了最新的表现。
Feb, 2022
该论文提出了一种两阶段的学习方法,通过最大化特征嵌入的熵来创造一个最佳输出流形,并通过自我监督的双胞胎约束流形,最小化特征嵌入的熵来提高深度神经网络在少样本学习任务中的表示能力。
Jun, 2020
我们提出了一个用于无监督语义分割的轻量级聚类框架,基于自监督视觉变换器的注意特征,通过将这些特征聚类成少量的聚类中心,我们能够将前景和背景的图像补丁分开成不同的组。我们的框架在无监督语义分割方面展示了很大的潜力,并在 PASCAL VOC 和 MS COCO 数据集上取得了最新的成果。
Nov, 2023