P-Tuning v2: 提示调节在规模和任务上可以与微调相媲美
通过 prompt tuning 机制,使用 backpropagation 学习 soft prompts 以提升 downstream tasks 的性能,其中 soft prompts 可以与多个 labeled examples 相结合,这种方法比 GPT-3 的 few-shot learning 更有效,并且在语言模型规模达到 10 亿以上时,method 的表现与 model tuning 相匹敌,而且具有更好的领域转移鲁棒性。
Apr, 2021
本研究研究了预训练多语言语言模型在零样本跨语言模型传递中的应用,使用 prompt-tuning 进行多语言 NLU 任务(包括句子分类、序列标注和问题解答)中的跨语言评估,并与传统的微调方法进行了比较。结果表明,prompt-tuning 在跨数据集跨语言传递方面比微调表现更好,而且只需调整 0.1% 到 0.3% 的参数。此外,分析表明,prompt tuning 可以在决策边界对齐更好的下游任务上具有更好的跨语言可传递性。
Oct, 2022
本文提出了 “SpeechPrompt V2” 语音分类的编程框架,该框架在统一的下游任务生成和多个语言的情境下具有高效性并取得了优秀的性能。
Mar, 2023
本文探讨将 Prompt 调参应用于多模态预训练,使用基于生成模型的统一序列到序列的预训练模型,实现轻量级 Prompt 调参,并与微调进行比较,通过实验研究发现 Prompt 调参具有改善鲁棒性的优点,但也存在一些局限性,给出了未来研究的方向。
Aug, 2022
本文提出字首调整 (prefix-tuning),来解决专用模型使用全量预训练语言模型的空间问题,自动学习小、定制化的向量。通过应用于自然语言生成和文本总结,仅使用 0.1% 的参数即能达到很好的性能。
Jan, 2021
研究表明预训练模型在很多代码智能任务中具有很好的效果,但由于不同形式的输入难以完全利用预训练模型的知识,这篇论文通过在代码智能任务中进行提示调整,探索它对模型性能和低资源情况的影响,实验表明相对于微调,提示调整在三项代码智能任务中都能实现更好的表现,特别是在低资源情况下表现更为优秀。
Jul, 2022
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
本文介绍了一种基于 Prompt tuning 的神经文本检索方法,通过更新其中 0.1% 的参数,能够显著提高检索模型的泛化性能,在额外引入一份包括 87 个主题的来自学术领域的数据集的情况下,证明了这种检索方法的横向主题泛化性强于传统方法。
Jul, 2022
研究预训练语言模型的 prompt tuning,从通用性和有限深度固定权重的预训练 transformers 的限制方面分析了 prompt tuning 的作用,证明了 prompt tuning 在有限深度 transformers 中存在限制,并给出了所需的可调 prompt 参数的下限。
May, 2023
本文提出了一种名为 XPrompt 的新型 Prompt tuning 模型,采用分层结构裁剪方法消除负面的 prompt token 从而优化下游任务的表现,在 SuperGLUE 测试中,在小型模型中能够接近或优于微调方法的性能水平。
Oct, 2022