Jun, 2022
FL-Tuning: 基于 Transformer 前馈网络的层调整
FL-Tuning: Layer Tuning for Feed-Forward Network in Transformer
Jingping Liu, Yuqiu Song, Kui Xue, Hongli Sun, Chao Wang...
TL;DR本研究提出了一种新型的调参方法,称为层调参,通过在 Transformer 层中添加可学习的参数来调整预训练语言模型,在 CLUE 基准数据集上的实验结果表明,FL-tuning 方法优于现有的 prompt tuning 方法,并且比 fine-tuning 方法更加稳定和快速。