EMNLPOct, 2022
通过聚类表示,使预训练语言模型成为更好的零样本学习器
Beyond Prompting: Making Pre-trained Language Models Better Zero-shot Learners by Clustering Representations
Yu Fei, Ping Nie, Zhao Meng, Roger Wattenhofer, Mrinmaya Sachan
TL;DR本文通过将聚类方法应用于提前训练的语言模型的嵌入空间中,展示了在主题和情感分类数据集上,该方法在无需另作准备的情况下显著提高了零 - shot 文本分类的性能;并发现该方法不需要 Fine-tuning 就可以将文本分类;最后,文章还比较了不同 PLM 嵌入空间,并发现即使 PLM 未明确预训练为生成有意义的句子嵌入,它仍然能按主题将文本很好地聚类。