贝叶斯多任务转移学习用于软提示调优
我们提出了多任务提示调整(MPT)方法,该方法通过从多个特定于任务的源提示中提取知识来首先学习一个单一可传输的提示,然后学习该共享提示的乘性低秩更新,以高效地将其适应每个下游目标任务。在 23 个自然语言处理数据集上进行的广泛实验表明,我们的方法在某些情况下优于最先进的方法,包括完全微调基线方法,尽管只有 0.035%的特定于任务的参数被调整。
Mar, 2023
本文考察了使用预训练的语言模型进行 Prompt tuning (PT) 的有效性,同时也研究了软提示在不同任务和不同模型之间的可迁移性,并发现神经元激活的重叠率是决定软提示可迁移性的重要指标。我们的发现表明,软提示迁移有望改善 PT,并建议进一步研究提示对模型的刺激方法
Nov, 2021
SPT 是一种半参数化的提示微调方法,其包含一个内存库,可以根据离散提示检索记忆提示,并通过 Fine-Tuning GLUE 数据集以及在五个自然语言处理任务类别下评估零 - shot 泛化以及在 SuperGLUE 数据集上预训练,众多实验证明了其有效性。
Dec, 2022
通过将已知分布近似为去偏的目标领域的真实分布,并从近似分布中均匀采样一定的代表性特征,生成 PLMs 的最终提示,我们的方法在基准测试中实现了最先进的性能。
Jan, 2024
本文介绍了一种使用少量参数进行预训练语言模型在下游任务中的应用实现,该方法名为 SPoT:Soft Prompt Transfer,通过学习源任务的 prompt 来初始化目标任务的 prompt,从而提升了 Prompt Tuning 的性能,并在语言模型大小上向 SuperGLUE 基准匹配或胜过标准模型调整,同时减少了多达 27,000 倍的任务特定参数,可以通过大规模的实验证明 prompt 的任务可传递性,最后还提出了一种高效的检索方法来识别相似的任务和预测最适合新目标任务的来源任务。
Oct, 2021
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
通过提出多维任务提示学习方法(MTPrompt),将更多的任务相关信息嵌入提示中,以激发大型语言模型中嵌入的知识,从而实现在少样本和五个不同数据集上取得最佳结果,并在不同实验设置和削减实验中展示了该方法的有效性和稳定性。
Dec, 2023
TransPrompt v2 是一种具有传递性的促进框架,用于跨相似或远距离文本分类任务的少样本学习,通过多任务元知识获取 (MMA) 过程和两项去偏技术,该元学习器可以在多个 NLP 任务和数据集上优于单任务和跨任务强基线,并改善预先未见任务上预训练语言模型的性能,同时在使用完整训练集进行学习时也优于强调优基线。
Aug, 2023
本文关注于如何提高 Prompt tuning 在 few-shot learning 任务中的性能。作者们实现了带有多种 source prompts 的简单方法,通过进行模型输出的组合来达到更好的性能,并提出了 Sample-specific Ensemble of Source Models (SESoM) 方法。他们在八个 NLP 任务上进行了实验,通过一个大的优势超越了相同和大型参数规模的现有模型。
Oct, 2022