Oct, 2022

评估参数效率学习用于生成

TL;DR本文从三个新的角度比较PERMs和finetuning,发现在训练样本较少情况下PERMs的表现更好且PLMs越大,表现越突出;Adapter在任务数据集较小时优于finetuning;PERMs能够比finetuning更好地实现生成的忠实度,特别是对于小训练集而言。最后,作者将Adapter应用于MT-NLG 530b,取得了Xsum数据集ROUGE-1 49.17,ROUGE-2 27.20以及ROUGE-L 40.98的全新state-of-the-art结果。