Nov, 2022

预训练语言模型层归一化参数有效调整

TL;DR本文提出了一种仅利用 0.03% 参数的 LN-tuning 方法,通过调整 Layer Normalization 模块的增益和偏置项,实现对 PLMs 的参数高效调整,同时研究了将 LN-tuning 与其他先前方法相结合的统一框架,在 MHA 和 LayerNorm 同时调整的情况下可以获得性能提升,但在 FFN 和 LayerNorm 同时调整的情况下将导致性能下降,该方法实现了 SOTA 的性能表现。