结构化提示调整
本文提出了一种动态提示策略 (DP) 来优化 LMs 的 prompt tuning,通过任务优化、位置、长度和提示表示的动态优化,实验证明 DP 能提高分类准确度,并证明其在全数据、少样本和多任务情况下都是有用的。
Mar, 2023
本文提出了一种新颖的框架,Selective Prompt Tuning (SPT),通过在每个中间层插入由可学习的概率门控制的提示来学习选择适当的提示层,进一步提出了一种新颖的双层优化框架 SPT-DARTS,可以更好地优化可学习门并改善所学提示层设置的最终提示调整性能,实验证明我们的 SPT 框架在全数据和少样本情况下比以往的最先进的 PETuning 基准方法表现更好,参数可调性相当或更少。
Oct, 2023
本文提出了 “SpeechPrompt V2” 语音分类的编程框架,该框架在统一的下游任务生成和多个语言的情境下具有高效性并取得了优秀的性能。
Mar, 2023
本研究首次探讨了基于生成式口语语言模型 (GSLM) 的提示调整范式用于语音处理任务,实验结果表明,与下游精细调整模型相比,提示调整技术使用的可调参数更少,在语音分类任务中实现了较高性能。
Mar, 2022
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
通过优化,使用 P-Tuning v2 方法能够在广泛的模型尺度和自然语言理解任务中取得与微调相当的性能,只需调整 0.1%-3% 的参数。
Oct, 2021
研究预训练语言模型的 prompt tuning,从通用性和有限深度固定权重的预训练 transformers 的限制方面分析了 prompt tuning 的作用,证明了 prompt tuning 在有限深度 transformers 中存在限制,并给出了所需的可调 prompt 参数的下限。
May, 2023
在参数高效调整预训练语言模型方面,软提示调整技术最近已经引起了广泛关注,尤其是减少模型参数调整所需的工作。尽管它们的使用越来越多,但是在使用软提示进行最优调整,特别是在较小的数据集上,仍然面临着重大挑战。该研究在这个领域做出了两个贡献:(i)我们引入了 SuperPos-Prompt,一种新的重新参数化技术,采用多个预训练词汇嵌入的叠加来改善软提示的学习。我们在几个 GLUE 和 SuperGLUE 基准测试中的实验一致表明 SuperPos-Prompt 优于 Residual Prompt 调整,在 T5-Small 上平均得分增加了 6.4,T5-Base 上增加了 5.0,并且收敛速度更快。值得注意的是,SuperPos-Prompt 有时甚至超过了完整的微调方法。(ii)此外,我们通过从冻结网络中省略丢失操作,展示了增强的性能和快速收敛,从而在各种场景和调整方法中持续改进。
Jun, 2024
本文研究了针对语义分析的提示调整方法,发现在低资源分裂的情况下,提示调整的 T5-xl 能够显著优于其微调和强 GPT-3 和 BART 基线表现。随着模型规模的增大,提示调整的 T5 模型在生成目标表示方面得到了进一步提高。
Oct, 2021