Oct, 2022
通过聚类表示,使预训练语言模型成为更好的零样本学习器
Beyond prompting: Making Pre-trained Language Models Better Zero-shot
Learners by Clustering Representations
TL;DR本文通过将聚类方法应用于提前训练的语言模型的嵌入空间中,展示了在主题和情感分类数据集上,该方法在无需另作准备的情况下显著提高了零-shot文本分类的性能; 并发现该方法不需要Fine-tuning就可以将文本分类;最后,文章还比较了不同PLM嵌入空间,并发现即使PLM未明确预训练为生成有意义的句子嵌入,它仍然能按主题将文本很好地聚类。