EMNLPApr, 2020

通过参数高效的迁移学习探索多功能生成式语言模型

TL;DR本文提出一种有效的方式,利用单个、大型的预训练模型同时微调多个下游生成任务,以实现内存有效性的提升,同时在五个多样化的自然语言生成任务上的实验结果表明,仅使用每个任务额外的 2-3% 的参数,我们的模型可以维持或甚至提高整个模型的微调性能。