ACLMay, 2023
零样本文本分类的标签无关预训练
Label Agnostic Pre-training for Zero-shot Text Classification
Christopher Clarke, Yuzhao Heng, Yiping Kang, Krisztian Flautner, Lingjia Tang...
TL;DR本文旨在探究利用两种新的有效的预训练策略(Implicit 和 Explicit pre-training)来改善 PLMs 在不同方面与领域的数据上泛化能力,特别是在零样本情况下进行文本分类的任务。作者通过引入 UTCD 数据集进行评估,证明了该方法在一系列零样本范式的挑战数据集上实现了更好的泛化能力。