改善半监督实例分割的(伪)标签
本文研究了半监督分割方法,与之前的方法相比,本文的方法在标注预算方面有了重大突破,在使用低标注预算时,我们的方法在语义与实例分割方面表现优于弱监督方法,并在较小的标注成本下优于以往的半监督方法。同时,我们通过考虑总的标注预算,将弱监督和半监督方法结合在一起,从而更公正地比较各种方法。我们在 Pascal VOC 基准测试上展示了结果。
May, 2019
本文介绍了一种互动训练(Dynamic Mutual Training,DMT)的方法,可以通过两种不同模型之间的互动来确定伪标签的错误,从而提高半监督学习的性能。在图像分类和语义分割任务中,DMT均取得了最新的表现。
Apr, 2020
本文研究半监督物体检测(SS-OD)中的伪标签偏差问题并引入一种名为“Unbiased Teacher”的方法,通过对过度自信的伪标签进行分类均衡损失,共同训练一个学生和逐渐进步的老师,最终在COCO标准、COCO附加和VOC数据集上使现有的最先进方法显著提高6.8绝对mAP,当只使用0.5、1、2%的标记数据时,相对于有监督的基线,实现了约10 mAP的提高。
Feb, 2021
本文提出了一种分布对齐与随机采样方法(DARS), 用于生产能够匹配标记数据的真实分类分布的无偏伪标签,同时也提出了一种渐进式数据增强和标签策略,以促进使用伪标签训练模型。实验结果表明,该方法在Cityscapes和PASCAL VOC 2012数据集上的表现优于现有的前沿方法。
Jul, 2021
提出一种 CA-SSL 框架,采用分离训练策略,包括热身训练阶段,在保留定位训练信号的同时忽略伪标签中的类信息,实现了从未标注的数据中提取训练信号的最优平衡;在 FCOS 目标检测等任务上,相比于 ImageNet 预训练基线模型,该模型在 3.6M 无标注数据集上实现了 4.7% 的显著性能提升。
Dec, 2021
Polite Teacher使用相互学习框架,结合有限的监督信息和无标定实例,通过confidence thresholding和mask scoring来过滤噪声,进而在anchor-free detector上提高了8%的mask AP值,这是关于半监督实例分割问题的首个anchor-free解决方案。
Nov, 2022
通过引入新颖的“引导燃烧”阶段的教师-学生蒸馏模型以及评估不同的实例分割架构、骨干网络和预训练策略,我们改进了蒸馏方法,并利用未标记数据在引导燃烧阶段中进行了指导,从而显著提高了先前最先进的结果。
Aug, 2023
PAIS是一种新的框架,针对半监督实例分割问题,通过调整半监督损失项的权重,使得伪标签包含宝贵信息不被过滤掉,实验证明,PAIS在标注数据极为有限的情况下具有很大的潜力,仅有1%的标注数据时,基于Mask-RCNN的PAIS在COCO数据集上获得21.2 mAP(超过当前最先进模型NoisyBoundary 7.7 mAP的12个百分点),基于K-Net的PAIS获得19.9 mAP。
Aug, 2023
该研究论文介绍了一种名为双教师的简单而有效的方法,利用双临时教师解决了学生和教师权重耦合的问题,通过定期生成伪标签训练学生模型并保持不同特征,以显著缩短训练时间,并证明了该方法适用于各种模型。
Oct, 2023