Jan, 2021

Muppet: 带有预细调的大规模多任务表示

TL;DR本文提出了预细调(pre-finetuning)的方法,是在语言模型预训练和微调之间增加一个大规模学习阶段,旨在促进学习出更好地适用于许多不同任务的表示。通过大规模的多任务学习,预细调在广泛的任务中显著提高了预训练鉴别器和生成模型的性能,并显著提高了微调的样本效率。