Jun, 2022

FL-Tuning: 基于 Transformer 前馈网络的层调整

TL;DR本研究提出了一种新型的调参方法,称为层调参,通过在 Transformer 层中添加可学习的参数来调整预训练语言模型,在 CLUE 基准数据集上的实验结果表明,FL-tuning 方法优于现有的 prompt tuning 方法,并且比 fine-tuning 方法更加稳定和快速。