AAAIAug, 2019
低资源自然语言处理遇上无监督语言模型:元预训练再元学习用于少样本文本分类
When Low Resource NLP Meets Unsupervised Language Model: Meta-pretraining Then Meta-learning for Few-shot Text Classification
Shumin Deng, Ningyu Zhang, Zhanlin Sun, Jiaoyan Chen, Huajun Chen
TL;DR使用元学习和无监督语言模型解决数据不足或需要适应未知分类的文本分类难题,并在情感分类数据集上表现出最先进的性能,因此预训练可能是更多 NLP 任务的少样本学习的有前途的解决方案。