Nov, 2022
调整语言模型作为训练数据生成器,用于增强少样本学习
Tuning Language Models as Training Data Generators for
Augmentation-Enhanced Few-Shot Learning
TL;DR本文从不同的角度研究PLM的few-shot学习,通过调参后作为生成器合成了大量的新训练样本,使用加权最大似然度量进行训练以鼓励生成器生成分类标签的样本,并使用正则化fine-tuned在小样本和合成样本上取得了比现有few-shot学习方法更好的结果,GLUE基准测试中超过无增加方法5+平均点数和增加方法3+平均点数。