ACLOct, 2021

SPoT: 通过软提示传递实现更好的冻结模型调整

TL;DR本文介绍了一种使用少量参数进行预训练语言模型在下游任务中的应用实现,该方法名为 SPoT:Soft Prompt Transfer,通过学习源任务的 prompt 来初始化目标任务的 prompt,从而提升了 Prompt Tuning 的性能,并在语言模型大小上向 SuperGLUE 基准匹配或胜过标准模型调整,同时减少了多达 27,000 倍的任务特定参数,可以通过大规模的实验证明 prompt 的任务可传递性,最后还提出了一种高效的检索方法来识别相似的任务和预测最适合新目标任务的来源任务。