图像标签的单阶段语义分割
该研究提出了一种分阶段的自我训练框架,使用伪掩模的统计信息来降低预测概率的不确定性以及通过多任务模型在一定程度上强制执行分割一致性,从而实现半监督语义分割的性能并表现出与现有方法相当。
Dec, 2020
本研究介绍了一种半监督框架,通过一个辅助模型和一个自我纠正模块,在只有一小部分完全有监督图像的基础上,使用具有目标边界框标签的图像和只有目标边界框标签的图像集(称为弱集),训练出高质量的语义分割模型,这种方法比传统大量完全有监督数据模型要求的标注工作量减少~7 倍。
Nov, 2018
本文提出了一种基于图像级别信息的全新弱监督语义分割方法,该方法不需要使用复杂的伪标签生成过程,而是利用图像分类信息产生可靠的像素级别的注释,然后使用全新的稠密能量损失函数和端到端网络进行图像分割。通过拓展基于图像分类信息产生的像素级别注释的的一步法到两步法模型,我们在 Pascal VOC 数据集上达到了最新的最高水平性能。
Nov, 2019
基于图像级标签的弱监督语义分割是有效的避免昂贵标注的解决方案。本文首先对传统方法进行全面调研,然后研究了在弱监督语义分割中视觉基础模型(如 SAM)的适用性和挑战,为该研究领域的未来发展提供了深入的见解。
Oct, 2023
本文提出了一种无需修改分割训练过程的弱监督训练方法,通过精心设计给定边界框的输入标签,经过单一训练循环即可达到先前算法的弱监督结果并能够抵达完全监督模型的约 95% 的语义标注和实例分割质量。
Mar, 2016
本文提出了一种半监督学习的方法,即自我训练范式,通过用标注数据训练教师模型并在大量未标注数据上生成伪标签,以较少的监督实现像素级准确模型,并在 Cityscapes,CamVid 和 KITTI 数据集上取得了最优表现,同时,在具有挑战性的跨域泛化任务上表现更佳,最后,为了减轻大量伪标签带来的计算负担,提出了一种快速训练计划来加速分割模型的训练。
Apr, 2020
本文提出了一种使用图像级别标签进行实例分割的新框架,其中分为两个阶段,分别是训练分类器生成伪掩模并在这些伪掩模上训练完全监督的 Mask R-CNN。在 PASCAL VOC 2012 数据集上进行实验,相对于现有方法说明主要性能提高。
Jul, 2019
文章提出了一种利用一些有限的像素注释数据和一些无标签数据进行半监督语义分割的方法,并在 PASCAL VOC 2012,PASCAL-Context,和 Cityscapes 数据集上实现了最新的半监督学习的最佳性能。
Aug, 2019
该研究提出了一种新颖的弱监督语义分割方法,通过从图像级别注释数据中提取高质量的伪掩膜,再在第三步上使用这些掩膜训练分割模型,解决了类别不平衡和缺失标签等问题。该方法仅使用图像级别注释作为监督,能够对各种类别和复杂对象进行分割,取得了 37.34 的均值 IoU,在 LID Challenge 的弱监督语义分割任务中名列第三。
Jun, 2020
本文介绍了一种使用图像标签进行弱监督语义分割的模型,利用图像标注作为注意机制来识别图像中的语义区域,并描述了如何将此掩模生成策略纳入完全端到端可训练的过程中,其中网络同时学习对图像进行分类和分割,实验表明,利用生成的类特定掩模可以超越只使用图像标记的最新弱监督语义分割方法甚至某些利用额外监督或训练数据的模型。
Apr, 2018