AAAIDec, 2023

不平衡半监督学习的两次类别偏差校正

TL;DR通过引入一种名为 TCBC 的新方法,我们解决了传统半监督学习中的两个挑战:训练样本的不平衡分布导致模型偏向某些类别,以及未标记样本的分布未知且可能与已标记样本不同,在训练过程中进一步导致偏向类别的伪标签。我们通过利用参与训练样本的类别分布估计来纠正模型,使其学习在类别平衡先验下的样本后验概率,从而减轻模型固有的类别偏差。在此基础上,我们还估计了训练过程中当前模型参数的类别偏差,对未标记样本的伪标签进行二次修正,以尽量使不同类别的未标记样本的伪标签分配公平。通过对 CIFAR10/100-LT、STL10-LT 和大规模长尾数据集 SUN397 的大量实验,我们提供确凿证据,证明我们提出的 TCBC 方法可靠地提升了类别不平衡的半监督学习性能。