驾驶场景的弱监督语义分割
本文提出了一种基于像素级原型对比度的弱监督语义分割方法,通过两种直观的先验知识,对图像的不同视角和单个视角内进行执行,旨在实施跨视图特征语义一致性规则,并促进特征空间的内部(间)类一致性(离散度),从而提高了两个强基线模型的精度,并在 PASCAL VOC 2012 上实现了新的最先进水平。
Oct, 2021
利用 Contrastive Language-Image Pre-training (简称 CLIP) 模型进行图像级标注的弱监督语义分割 (WSSS) 是一项具有挑战性的任务。本文提出了一种 CLIP-ES 框架,结合了 softmax 函数、基于文本的驱动策略和一种实时的基于注意力机制的亲和度 (CAA) 模块,以及 CGL 损失,来提高 WSSS 的效率和性能。
Dec, 2022
提出了一种新颖的端到端的弱监督语义分割框架 DSCNet,通过引入像素级组对比和语义级图对比以及设计一种新的双流对比学习机制,综合处理像素级和语义级上下文信息,从而在弱监督语义分割任务中取得了优于现有方法和基准模型的结果。
May, 2024
我们提出了一种名为 “SemPLeS” 的框架,通过学习有效地提示 CLIP 空间,以增强分割区域与目标对象类别之间的语义对齐,从而产生训练分割模型所需的伪掩码。在 PASCAL VOC 和 MS COCO 等标准 WSSS 基准测试中,我们所提出的 SemPLeS 框架实现了最先进的性能,并通过我们学到的提示的语义可视化展示了其解释性,代码将会发布。
Jan, 2024
对比传统的像素级监督语义分割,使用图像级标签的弱监督语义分割(WSSS)面临的挑战是始终专注于最具差异性的区域,导致完全监督条件下的不一致。典型的表现是在目标边界上减少了精度,从而导致 WSSS 的准确性下降。为了缓解这个问题,我们提出了一种自适应将图像内容划分为确定性区域(如自信的前景和背景)和不确定性区域(如目标边界和错误分类类别)进行分别处理的方法。对于不确定性提示,我们采用基于激活的掩膜策略,并试图通过自身提炼的知识来恢复局部信息。我们进一步假设未掩膜的自信区域应具有足够的鲁棒性以保持全局语义。基于此,我们引入了一种互补的自我增强方法,它限制了这些自信区域与具有相同类别标签的增强图片之间的语义一致性。通过在 PASCAL VOC 2012 和 MS COCO 2014 上进行的大量实验证明,我们提出的 WSSS 的单阶段方法不仅明显优于最先进的基准方法,而且在复杂性换精度的多阶段方法之上。可以在此 https URL 找到代码。
Dec, 2023
该论文提出了一种基于图片分类网络和概率解释 CAM 的图像级弱监督语义分割方法来改善先前弱监督下模型的性能,通过提高区域相似性和轮廓质量来增强几乎任何以前的 WSSS 方法,并在 PASCAL VOC 数据集上进行了演示。
Apr, 2023
本研究提出了一种基于形状信息的弱监督语义分割方法,采用了新颖的改进方法去增强模型可靠性,能够在单阶段框架内迅速高效地完成训练与推理,在 PASCAL VOC 2012 数据集上的准确率超过了现有的同类方法。
Aug, 2022
这项研究旨在利用预训练的基础模型,如对比语言图像预训练(CLIP)和分段任意模型(SAM),利用图像级别标签解决弱监督语义分割(WSSS)。为此,我们提出了基于 CLIP 和 SAM 的粗到精细的框架,用于生成高质量的分割种子。我们通过冻结权重的 CLIP 和两组可学习的任务特定提示共同执行图像分类任务和种子分割任务。我们设计了一个基于 SAM 的分区(SAMS)模块,并将其应用于每个任务以生成粗糙或精细的种子图。此外,我们设计了一个多标签对比损失,由图像级别标签监督,和一个由生成的粗糙种子图监督的 CAM 激活损失。这些损失用于学习提示,在我们的框架中,提示是唯一需要学习的部分。一旦学习了提示,我们将每个图像以及学习的分割特定提示输入到 CLIP 和 SAMS 模块中,以生成高质量的分割种子。这些种子用作伪标签,用于训练一种现成的分割网络,就像其他两阶段的 WSSS 方法一样。实验证明,我们的方法在 PASCAL VOC 2012 上取得了最先进的性能,并在 MS COCO 2014 上获得了有竞争力的结果。
Dec, 2023
本文提出了一种基于 CLIP 模型的跨语言图像匹配框架 CLIMS,通过自然语言监督以激活更合理的物体区域和抑制相关的背景区域,并使用一组预定义的类相关背景文本描述来防止模型激活相关背景区域,在 PASCAL VOC2012 数据集上进行了充分的实验,该方法明显优于之前的最先进方法。
Mar, 2022
基于图像级标签的弱监督语义分割是有效的避免昂贵标注的解决方案。本文首先对传统方法进行全面调研,然后研究了在弱监督语义分割中视觉基础模型(如 SAM)的适用性和挑战,为该研究领域的未来发展提供了深入的见解。
Oct, 2023