先前引导的特征增强网络用于小样本分割
本文提出了一种 Context-aware Prior Mask (CAPM) 和 Noise Suppression Module (NSM) 用于 Few-Shot Segmentation 的 prior mask 生成以提高性能,新提出的 PFENet++ 在三个 benchmark 上表现出色。
Sep, 2021
通过将查询特征整合到前景和背景原型的生成过程中,Query-guided Prototype Evolution Network (QPENet) 提供了与特定查询相适应的定制原型,通过一系列的模块和过程实现了 Few-Shot Segmentation 的显著性能增强。
Mar, 2024
为了减轻先前方法中语义歧义和类间相似性对像素级前景 - 背景分类准确性的限制,我们提出了 Relevant Intrinsic Feature Enhancement Network (RiFeNet)。通过引入一个无标签分支作为高效的数据利用方法,我们提高了前景实例的语义一致性,在测试时,无需额外的无标签数据和计算。此外,我们通过提出新颖的多层原型生成和交互模块扩展了前景和背景之间的类间变化,全局和局部原型之间的不同粒度补充性使得类似类别之间的区分更加明确。RiFeNet 在 PASCAL-5i 和 COCO 基准上的定性和定量性能超过了最先进的方法。
Dec, 2023
近年来,基于卷积神经网络的深度学习在许多应用中取得了显著的成功。然而,它们对大量标注数据的依赖以及对未知类别的有限泛化能力对于医学图像处理任务来说是一个挑战。少样本学习利用少量标注数据进行泛化到未知类别的能力已经成为一个关键性的研究领域,吸引了大量关注。目前,大多数研究采用基于原型的方法,即利用原型网络从支持集构建原型,引导查询集的处理以获得最终结果。虽然这种方法是有效的,但它过于依赖支持集,忽视了查询集,导致模型类别内部存在明显的差异。为了缓解这个缺点,我们提出了一种新的支持 - 查询原型融合网络(SQPFNet)。SQPFNet 首先为支持图像的前景区域生成多个支持原型,从而产生一个粗糙的分割掩模。随后,基于粗糙分割掩模构建查询原型,额外利用查询集中的模式信息。因此,SQPFNet 构建了高质量的支持 - 查询融合原型,通过它对查询图像进行分割以获得最终的细化查询掩模。对两个公共数据集 SABS 和 CMR 的评估结果显示,SQPFNet 实现了最先进的性能。
May, 2024
本文提出了一种原型精炼网络(PRNet),通过自适应和融合获取新类别的代表性原型,从而增强了低数据量情况下的原型区分度,实现了少样本分割的挑战,实验结果表明该方法显著优于现有方法。
Feb, 2020
本篇文章介绍了一种简单但有效的自导学习方法,用于提高查询图像的分割性能,特别是在 few-shot 分割任务中。同时,也提出了一种新的交叉引导模块,用于改善多次采样的分割结果。实验结果表明,该方法在 PASCAL-5i 和 COCO-20i 数据集上可以达到新的最优性能。
Mar, 2021
本研究提出了一种基于度量学习的原型对齐网络(PANet)来解决仅使用少量样本进行图像分割的问题,它通过学习每个语义类别的原型表示,并通过匹配每个像素到所学习的原型来执行查询图像的分割,最终在 PASCAL-5i 上超越了现有技术达到了 48.1% 和 55.7% 的 mIoU 得分(1-shot 和 5-shot 设置),是一种有效的 few-shot segmentation 方法。
Aug, 2019
提出了一种轻量级特征金字塔编码网络(FPENet)来在语义分割任务中平衡精度和速度。通过深度扩张卷积对多尺度上下文特征进行特征金字塔编码块的编码,在解码器中引入了互相嵌入上采样模块以高效聚合高级语义特征和低级空间细节。在 Cityscapes 和 CamVid 基准数据集上,该网络具有更少的参数和更高的推理速度,并实现了 68.0%的平均 IoU 和 102 FPS 的速度。
Sep, 2019
本文提出了一种利用潜在原型的对比增强方法来提高 few-shot 分割模型性能的方法,通过采样模块生成伪掩模和新的原型,从而提高原型和查询特征之间的相似性信息的利用率,并通过对比增强模块来提高预测性能。实验证明,该方法在 Pascal-5^i 和 COCO-20^i 的 1-shot 和 5-shot 分割任务中的性能明显优于现有方法,尤其在 5-shot 任务中,性能分别比基准提高了 5.9% 和 7.3%。
Mar, 2022
提出了一种多信息集成网络(MIANet),它有效地利用了一般知识和实例信息进行准确的分段,通过多种信息聚合,MIANet 高效地利用了语义词嵌入和实例信息,最终提高了 PASCAL-5i 和 COCO-20i 数据集的性能并取得了新的最佳效果。
May, 2023