Dec, 2022

在上下文中的学习蒸馏:转移预训练语言模型的少样本学习能力

TL;DR通过 in-context learning distillation 技术,将大型已预训练的语言模型的能力转移至小型模型,同时结合语言建模目标,提高了多任务学习和少样本学习的性能,实验结果表明,多任务学习下拥有语言建模目标的 in-context learning objectives 可以取得最佳效果。