类别不平衡的半监督学习
SimiS 是一种简单而有效的 SSL 算法,通过用伪标签补充数据以解决类别不平衡问题,在 CIFAR100-LT,FOOD101-LT 和 ImageNet127 数据集上分别相对现有方法提高了 12.8%,13.6%和 16.7%的表现。
Nov, 2022
本文提出一种新的 SSL 算法,通过引入转移学习和自主监督来初始化数据的表示,再利用新算法,交替拟合有标签和无标签点以降低过拟合和避免标签和无标签损失平衡的问题。实验证明,该方法在标准基准测试中表现优异,特别是在从其他任务或数据集中细化时,效果更佳。
May, 2019
我们通过引入额外的熵损失构建了一个分类器,用于对来自已知和未知类别的数据进行分类,从而改进了现有的半监督学习方法在已知和未知类别的分类中的表现。通过在 CIFAR-100 和 STL-10 两个基准图像分类数据集上的实验证明,我们相对于现有的 SSL、开放集合 SSL 和开放世界 SSL 方法取得了巨大的改进。当标记数据非常有限(每个类别 1-25 个标记示例)时,进步最为显著。
Aug, 2023
提出了一种名为 CCSSL 的半监督学习方法,采用类别聚类和图像对比改善模型的伪标签质量和在真实世界中的鲁棒性,并通过目标重新加权实现了干净标签学习和减少噪声标签学习。实验表明其在多个数据集上均取得了显著的性能提升。
Mar, 2022
本文提出了一种可扩展的类不平衡半监督学习算法,它可以有效地利用未标记的数据,同时通过引入单层的辅助平衡分类器(ABC)来缓解类别不平衡问题,并使用一种新的半监督学习技术(一致性正则化)去平衡分类器,从而在四个基准数据集上实现了最先进的性能。
Oct, 2021
本文通过广泛的实验和理论分析,系统研究了在数据集不平衡的情况下自监督学习的表现,并通过半合成实验验证了 SSL 学习了与标签无关但可转移的特征,进而提出了一种新的加权正则化技术,显著提高了 SSL 表示的质量。
Oct, 2021
本篇研究评估了半监督学习在存在严重类别不平衡和含有新类别图像的真实数据集上的有效性。研究结果表明最近提出的半监督学习方法可以利用不同类别的数据提高性能,但相较于迁移学习仍然表现不足。此外,本文证明在迁移学习中,现有的半监督学习方法在存在不同类别数据时往往是有害的。因此,标准的微调加蒸馏自训练是最健壮的方法。这些研究结论说明,对真实数据集的半监督学习可能需要不同于文献中普遍使用的方法。
Apr, 2021
通过实现多种常用的 SSL 技术并在一系列实验中进行测试,研究发现简单基线方法的表现通常被低估,而 SSL 方法对标记和未标记数据的敏感性不同,当未标记数据集包含类外示例时性能可能会显著下降,因此我们提供了一个公共代码重现平台以帮助实现 SSL 技术在实际应用中的可行性。
Apr, 2018
本文提出了一种新颖的协同学习框架 (CoSSL),通过分离表示学习和分类器学习来处理不平衡自监督学习。为了处理数据不平衡,我们设计了尾部特征增强 (TFE) 用于分类器学习,并且针对不同的转移测试分布进行了全面评估,实验证明我们的方法在各种不同的转移分布下都表现出优越的性能。
Dec, 2021
本文提出了一个 semi-supervised learning (SSl) 的新方法:Mixture of Expert/Imitator Networks,该模型通过利用大量未标记数据来训练 imitator 网络模拟 expert 网络的标签分布,从而提高 text classification 任务的性能,实验结果表明该方法可适用于多种深度神经网络模型,并且性能随未标记数据的增加而提高。
Oct, 2018