关键词contrastive consistency
搜索结果 - 2
- 使用无约束未标记数据扩大半监督学习规模
提出了一种名为 UnMixMatch 的半监督学习框架,该框架可以从无约束的未标记数据中学习有效表示,以提高性能。它由三个组件组成:具有硬增强的监督学习器提供强大的正则化,对照一致性正则化器从未标记数据中学习底层表示以及自监督损失用于增强从 - 双重对比一致性的小样本文本分类
本文研究了如何使用预训练的语言模型进行少样本文本分类,提出了一种基于有限标注数据的监督对比学习和大量无标注数据的一致性约束方法,并且提出一种新的对比一致性来改善模型性能。在四个数据集上的实验证明,我们的模型 (FTCC) 可以胜过现有的最佳