ST++: 自助学习在半监督语义分割中的优化
本研究提出了增量自训练(IST)用于半监督学习,通过在模型稳定后处理决策边界附近的数据,优化分类器性能,并在五个数据集和两种基础模型上验证,取得了显著的识别准确率和学习速度的提升,超越了现有最先进方法三个具有挑战性的图像分类任务。
Apr, 2024
本文提出了一种半监督学习的方法,即自我训练范式,通过用标注数据训练教师模型并在大量未标注数据上生成伪标签,以较少的监督实现像素级准确模型,并在 Cityscapes,CamVid 和 KITTI 数据集上取得了最优表现,同时,在具有挑战性的跨域泛化任务上表现更佳,最后,为了减轻大量伪标签带来的计算负担,提出了一种快速训练计划来加速分割模型的训练。
Apr, 2020
自我训练(self-training)方法在处理确认偏倚问题上具有重要作用,但在地标检测领域应用时面临着自适应选择伪标签、确定样本选择阈值和选择自训练的困难等问题。为了解决这些问题,本文提出了自我训练地标检测(STLD)方法,使用任务学习计划代替显式伪标签选择,从而达到从有信心到无信心任务逐步迁移的目的,并通过伪预训练和收缩回归两个重要组成部分实现,实验证明 STLD 在半监督和全监督设置下均优于现有方法。
Apr, 2024
本文提出了一种基于代表类的原型和特征距离的无监督域自适应方法,通过第一视角和第二视角目标的相对特征距离来调整原型分配,并使用特征距离来估计伪标签的概率以辅助在线纠正,同时利用自我监督训练模型进一步提高性能。
Jan, 2021
提出了一种基于自监督学习和伪标签的自训练方法,用于减轻深度神经网络在逐步学习新类任务时出现的灾难性遗忘问题,该方法不仅考虑了历史任务的知识,还利用了额外的数据提高了语义分割的性能。
Dec, 2020
半监督学习策略 —— 转化不变自训练(TI-ST)方法,通过评估像素级伪标签的可靠性并在自训练过程中过滤不可靠的检测,解决标签缺失和提高目标域分割性能。
Jul, 2023
本文介绍了多种改进的方法以减轻自我训练管道中的确认偏差,评估了这些改进在多个数据集上的表现,证明在现有的自我训练设计选择上实现了性能增益,并研究了增强方法对未知类别的 Open Set 无标签数据的扩展性。
Jan, 2023
该研究提出了一种分阶段的自我训练框架,使用伪掩模的统计信息来降低预测概率的不确定性以及通过多任务模型在一定程度上强制执行分割一致性,从而实现半监督语义分割的性能并表现出与现有方法相当。
Dec, 2020