Feb, 2024

跨语言迁移的软提示调整:少即是多

TL;DR通过插入可学习的嵌入或软提示到预训练语言模型 (PLM) 的输入层,Soft Prompt Tuning (SPT) 是一种将 PLM 调适到特定任务的参数高效方法,无需修改其参数。本文研究了 SPT 在跨语言传递中的潜力,并通过冻结模型参数并只训练软提示以保持 SPT 的参数高效性,不仅减少了计算成本和存储开销,还证明了这一特性能够增强对语言上远离的语言的跨语言传递性能。此外,我们还探索了与软提示相关的不同因素(如长度或重新参数化)对跨语言传递性能的影响。