HyperPrompt:基于提示的 Transformer 任务调节
通过 prompt tuning 机制,使用 backpropagation 学习 soft prompts 以提升 downstream tasks 的性能,其中 soft prompts 可以与多个 labeled examples 相结合,这种方法比 GPT-3 的 few-shot learning 更有效,并且在语言模型规模达到 10 亿以上时,method 的表现与 model tuning 相匹敌,而且具有更好的领域转移鲁棒性。
Apr, 2021
深度图形提示微调是一种替代微调的创新方法,通过在图中引入可训练的特征节点和预处理特定任务的令牌,增强模型的表达能力,从而在小型数据集和大型图形上可扩展地减少自由参数的数量并消除了多个模型副本的需求。
Sep, 2023
我们提出了多任务提示调整(MPT)方法,该方法通过从多个特定于任务的源提示中提取知识来首先学习一个单一可传输的提示,然后学习该共享提示的乘性低秩更新,以高效地将其适应每个下游目标任务。在 23 个自然语言处理数据集上进行的广泛实验表明,我们的方法在某些情况下优于最先进的方法,包括完全微调基线方法,尽管只有 0.035%的特定于任务的参数被调整。
Mar, 2023
本文提出了 “SpeechPrompt V2” 语音分类的编程框架,该框架在统一的下游任务生成和多个语言的情境下具有高效性并取得了优秀的性能。
Mar, 2023
本文介绍了一种简单且轻量级的任务条件模型,名为 Prompt Guided Transformer (PGT),通过设计一个 Prompt-conditioned Transformer 块,在自注意机制中引入任务特定的提示,以实现全局依赖建模和跨多个任务的参数高效特征适应。实验证明,该方法在使用更少的参数的同时,取得了最先进的结果,并在性能和参数大小之间保持了显著的平衡。
Jul, 2023
研究预训练语言模型的 prompt tuning,从通用性和有限深度固定权重的预训练 transformers 的限制方面分析了 prompt tuning 的作用,证明了 prompt tuning 在有限深度 transformers 中存在限制,并给出了所需的可调 prompt 参数的下限。
May, 2023
本文提出了一种名为 XPrompt 的新型 Prompt tuning 模型,采用分层结构裁剪方法消除负面的 prompt token 从而优化下游任务的表现,在 SuperGLUE 测试中,在小型模型中能够接近或优于微调方法的性能水平。
Oct, 2022
通过优化,使用 P-Tuning v2 方法能够在广泛的模型尺度和自然语言理解任务中取得与微调相当的性能,只需调整 0.1%-3% 的参数。
Oct, 2021
该论文介绍了一种新颖的基于实例控制代码的提示调整算法来探索其对于对话生成的影响,该算法不同于传统的离散提示和连续提示,可以适应输入变化较大的任务,如开放领域对话生成,并在经典数据集上实验证明其比提示基线更好,而参数却只需用到总计量的 5-6%。
Jul, 2023