Oct, 2021

SPoT: 通过软提示传递实现更好的冻结模型调整

TL;DR本文介绍了一种使用少量参数进行预训练语言模型在下游任务中的应用实现,该方法名为SPoT:Soft Prompt Transfer,通过学习源任务的prompt来初始化目标任务的prompt,从而提升了Prompt Tuning的性能,并在语言模型大小上向SuperGLUE基准匹配或胜过标准模型调整,同时减少了多达27,000倍的任务特定参数,可以通过大规模的实验证明prompt的任务可传递性,最后还提出了一种高效的检索方法来识别相似的任务和预测最适合新目标任务的来源任务。