ICLROct, 2021

LFPT5:基于 T5 提示调整的终身 Few-shot 语言学习统一框架

TL;DR本论文提出了一种基于 T5 模型的统一框架 LFPT5,它可以在少量标注样本的情况下解决 Lifelong Few-shot Language Learning 问题,通过生成伪样本、在新领域中训练以及最小化 KL 散度损失实现了对之前学习的领域的防遗忘,同时能够适应不同类型的任务,并在不同的 Lifelong Few-shot Language Learning 环境中显著优于之前的方法。