ACLFeb, 2022

NoisyTune:加入少量噪声能更好地微调预训练语言模型

TL;DR该研究旨在提出一种简单而有效的方法名为 NoisyTune,通过在微调之前为 PLMs 的参数添加一些噪声来帮助更好地微调 PLMs,在 GLUE 英语基准和 XTREME 多语言基准上进行的广泛实验表明 NoisyTune 可以持续增强不同 PLMs 在不同下游任务的微调。