ICMLAug, 2022

使用学习者高效微调压缩语言模型

TL;DR本论文提出使用学习模块和启动技术进行预训练模型的微调,以达到在更短的时间内得到更好效果的目标。实验证明,Learner 模块和 priming 可以在训练速度、资源利用等方面有较大提升。