本文介绍一种基于深度分割模型集成的半监督学习方法,利用有标注的图片训练模型子集,并使用未标注的图片协同训练模型,同时使用对抗样本来保持多样性,实现语义图像分割的性能提升,在两个医学图像数据集上取得最先进的结果。
Mar, 2019
文章提出了一种利用一些有限的像素注释数据和一些无标签数据进行半监督语义分割的方法,并在 PASCAL VOC 2012,PASCAL-Context,和 Cityscapes 数据集上实现了最新的半监督学习的最佳性能。
Aug, 2019
通过在未标注的视频序列和额外图像上使用半监督学习,结合人工标注标签和伪标签数据进行训练,该简单而有效的迭代半监督学习方法在城市街景分割任务上取得了67.8%的PQ,42.6%的AP 和85.2%的mIOU的最优成果,并在核心计算机视觉任务上实现了超越最先进水平的重要进展。
May, 2020
本文提出了一种半监督图像分割的改进方法,采用自主逐步训练方法和不同网络结构预测结果一致性及可靠性的 Generalized Jensen Shannon Divergence(JSD)损失函数,通过在在训练的不同迭代中强制模型的预测结果始终保持一致性,获得了在少量已标注数据情况下取得了比标准协同训练基线方法和最新半监督分割方法更好的性能表现。
Oct, 2020
本文中,我们提出了一种新的一致性正规化方法,名为交叉伪监督(CPS),通过探索有标签数据和额外的未标记数据来研究半监督语义分割问题。在城市风景和PASCAL VOC 2012上,我们的方法实现了半监督分割性能的最新水平。
Jun, 2021
本文提出了一种新的基于双分支协同训练框架的基于冲突的跨视图一致性方法(CCVC),该方法使用特征差距损失鼓励两个子网络从相同的输入学习不同的特征,并使用冲突的伪标签方法来保证模型可以从冲突预测中学习更多有用的信息,从而在半监督语义分割(Semantic Segmentation)任务中取得了最新的最优性能.
Mar, 2023
基于少量训练资源,Meta Co-Training在ImageNet-10%上取得了新的最先进性能,并在其他细粒度图像分类数据集上胜过先前的半监督方法。
Nov, 2023
通过引入多个专业老师来共同监督强大的学生模型,我们的方法类似于经典的专家混合模型,通过逐步交替学生训练和教师分配,并引入教师-学生和局部-全局一致性,来解决具有大能力差距时的弱到强泛化挑战。
Feb, 2024
提出了一种采用引导类激活图的端到端弱监督语义分割模型CoSA,通过交替学习和三种技术的引入,有效减少了类激活图的不一致性和错误,达到了优于现有方法的性能。
提出了一种PrevMatch框架,通过最大化利用训练过程中获得的时间知识,有效地缓解了复杂的训练流程和计算负担所带来的限制,同时在各种评估协议上始终优于现有方法,特别是在DeepLabV3+和ResNet-101网络设置下,在只有92个标注图像的Pascal VOC数据集上,与现有最先进方法Diverse Co-training相比,mIoU提升了1.6,同时训练速度增快了2.4倍,并且结果表明PrevMatch能够稳定地优化,特别适用于性能较差的类别。
May, 2024