Input-Tuning: 适应冻结预训练模型的不熟悉输入
本文提出了 Instance-wise Prompt Tuning (IPT)方法,该方法是基于 Prompt Learning 的新型范式,利用输入数据实例注入知识来生成更富有信息量和具体的上下文信息,并在多个任务和资源设置中显着优于任务为基础的 Prompt Learning 方法,达到仅有 0.5%-1.5%调整参数时的基准微调性能。
Jun, 2022
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
CP-Tuning 是第一个无需手动工程任务特定提示和说明符进行微调的端到端对比提示调整框架,它与任务不变的连续提示编码技术和完全可训练的提示参数相集成。
Apr, 2022
研究表明预训练模型在很多代码智能任务中具有很好的效果,但由于不同形式的输入难以完全利用预训练模型的知识,这篇论文通过在代码智能任务中进行提示调整,探索它对模型性能和低资源情况的影响,实验表明相对于微调,提示调整在三项代码智能任务中都能实现更好的表现,特别是在低资源情况下表现更为优秀。
Jul, 2022
本文提出了一种新的连续提示方法,称为上下文调整,用于对预训练语言模型进行微调以进行自然语言生成,可以根据输入文本生成上下文化的提示,然后使用连续的反向提示来改进过程自然语言生成的过程。
Jan, 2022
通过优化,使用 P-Tuning v2 方法能够在广泛的模型尺度和自然语言理解任务中取得与微调相当的性能,只需调整 0.1%-3% 的参数。
Oct, 2021
本研究研究了预训练多语言语言模型在零样本跨语言模型传递中的应用,使用 prompt-tuning 进行多语言 NLU 任务(包括句子分类、序列标注和问题解答)中的跨语言评估,并与传统的微调方法进行了比较。结果表明,prompt-tuning 在跨数据集跨语言传递方面比微调表现更好,而且只需调整 0.1% 到 0.3% 的参数。此外,分析表明,prompt tuning 可以在决策边界对齐更好的下游任务上具有更好的跨语言可传递性。
Oct, 2022
本研究首次探讨了基于生成式口语语言模型 (GSLM) 的提示调整范式用于语音处理任务,实验结果表明,与下游精细调整模型相比,提示调整技术使用的可调参数更少,在语音分类任务中实现了较高性能。
Mar, 2022
该研究提出了一种名为 Late Prompt Tuning (LPT) 的 PETuning 方法,它将追加的提示插入到 PTM 的中间层而非输入层或所有层,并通过一个神经提示生成器获得实例依赖的提示,具有更快的训练速度和更低的内存成本,可在全数据和少样本场景下实现与全模型调整和其他 PETuning 方法竞争的性能。
Oct, 2022
研究了 prompt learning 对临床应用决策任务的可行性,并与传统的微调方法进行了直接比较。结果部分符合 prompt learning 文献,提示学习能够在可训练参数更少和需要更少的训练数据的情况下与传统微调相匹配或改进,可以作为一种可替代越来越大的预训练语言模型微调的较低计算资源成本,适用于临床环境。
May, 2022