本文提出了一种半监督学习的方法,即自我训练范式,通过用标注数据训练教师模型并在大量未标注数据上生成伪标签,以较少的监督实现像素级准确模型,并在 Cityscapes,CamVid 和 KITTI 数据集上取得了最优表现,同时,在具有挑战性的跨域泛化任务上表现更佳,最后,为了减轻大量伪标签带来的计算负担,提出了一种快速训练计划来加速分割模型的训练。
Apr, 2020
本文介绍了多种改进的方法以减轻自我训练管道中的确认偏差,评估了这些改进在多个数据集上的表现,证明在现有的自我训练设计选择上实现了性能增益,并研究了增强方法对未知类别的 Open Set 无标签数据的扩展性。
Jan, 2023
本文介绍了二元和多类分类的自学习方法及其变体,并探讨了一些新的方法。我们评估了这些方法在不同的基准分类数据集上的表现,并提出了未来研究的思路。这是首个完整分析的经验综述。
Feb, 2022
提出了一种基于自监督学习和伪标签的自训练方法,用于减轻深度神经网络在逐步学习新类任务时出现的灾难性遗忘问题,该方法不仅考虑了历史任务的知识,还利用了额外的数据提高了语义分割的性能。
Dec, 2020
本文提出了一种基于自训练的半监督学习方法,通过加入 label 缺失的无标签数据和模型预测,模型的性能和精确度可以得到有效的提升,而 dropout 和注入噪声则是关键操作。
Sep, 2019
提出了 DRIFT(Differentiable Self-Training)方法,将 self-training 视为 Stackelberg 博弈,以可微分的方式处理伪标签和样本权重,使用不同可微分性的 leader-follower 常规交互,获得更高的预测性能,适用于半监督和弱监督学习。
Sep, 2021
本文提出了一种基于自训练和数据增强的半监督语义分割模型,通过选择可靠的未标注图像优化模型的性能。
Jun, 2021
该研究提出了一种分阶段的自我训练框架,使用伪掩模的统计信息来降低预测概率的不确定性以及通过多任务模型在一定程度上强制执行分割一致性,从而实现半监督语义分割的性能并表现出与现有方法相当。
在半监督学习中,为了减少标记数据的需求,经常使用自我训练来分配伪标签。然而,由于自我训练中可能会出现错误的伪标签,从而导致训练不稳定,因此提出了一种去偏差的自我训练方法,它使用两个参数独立的分类器头来分离伪标签的生成和利用,并通过对抗优化表征来改善伪标签的质量,从而稳定训练并提高性能。
本文提出了一种新颖的半监督元学习方法,称为学习自我训练(LST),通过使用无标签数据和元学习来自动加标和改进模型,取得了在 ImageNet 数据库上半监督 few-shot 分类领域中最新方法无法超越的良好分类效果。
Jun, 2019