Jun, 2021

预训练语言模型为什么有助于下游任务?对头部和提示调整的分析

TL;DR论文探究了预训练语言模型在 NLP 任务上的应用,提出了一种基于潜变量生成模型的分析框架,并分别分析了 head tuning 和 prompt tuning 两种方式,在合适的条件下潜变量和分类器之间的关系可以解决下游任务。作者在大量的合成实验中验证了该框架的可行性。