多空间投影和提示融合的高效提示调整
我们提出了多任务提示调整(MPT)方法,该方法通过从多个特定于任务的源提示中提取知识来首先学习一个单一可传输的提示,然后学习该共享提示的乘性低秩更新,以高效地将其适应每个下游目标任务。在 23 个自然语言处理数据集上进行的广泛实验表明,我们的方法在某些情况下优于最先进的方法,包括完全微调基线方法,尽管只有 0.035%的特定于任务的参数被调整。
Mar, 2023
本论文提出了一种名为 Fast Prompt Tuning 的技术,通过将 partial PLMs 中的 soft prompts 转化到整个 PLM 中来提高 prompt tuning(PT)的训练效率,该技术的应用可以在保持性能的同时节省 30% 的训练计算资源。
Nov, 2022
本文提出了一种新颖的框架,Selective Prompt Tuning (SPT),通过在每个中间层插入由可学习的概率门控制的提示来学习选择适当的提示层,进一步提出了一种新颖的双层优化框架 SPT-DARTS,可以更好地优化可学习门并改善所学提示层设置的最终提示调整性能,实验证明我们的 SPT 框架在全数据和少样本情况下比以往的最先进的 PETuning 基准方法表现更好,参数可调性相当或更少。
Oct, 2023
该研究提出了一种名为 Late Prompt Tuning (LPT) 的 PETuning 方法,它将追加的提示插入到 PTM 的中间层而非输入层或所有层,并通过一个神经提示生成器获得实例依赖的提示,具有更快的训练速度和更低的内存成本,可在全数据和少样本场景下实现与全模型调整和其他 PETuning 方法竞争的性能。
Oct, 2022
通过插入可学习的嵌入或软提示到预训练语言模型 (PLM) 的输入层,Soft Prompt Tuning (SPT) 是一种将 PLM 调适到特定任务的参数高效方法,无需修改其参数。本文研究了 SPT 在跨语言传递中的潜力,并通过冻结模型参数并只训练软提示以保持 SPT 的参数高效性,不仅减少了计算成本和存储开销,还证明了这一特性能够增强对语言上远离的语言的跨语言传递性能。此外,我们还探索了与软提示相关的不同因素(如长度或重新参数化)对跨语言传递性能的影响。
Feb, 2024
本文考察了使用预训练的语言模型进行 Prompt tuning (PT) 的有效性,同时也研究了软提示在不同任务和不同模型之间的可迁移性,并发现神经元激活的重叠率是决定软提示可迁移性的重要指标。我们的发现表明,软提示迁移有望改善 PT,并建议进一步研究提示对模型的刺激方法
Nov, 2021
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
本研究提出了一种名为 “Approximated Prompt Tuning” 的方法,用以提高视觉语言预训练模型的迁移学习效率,其基于软提示令牌的独立信息扩散步骤,从而有效地避免了昂贵的全局关注建模,并显著降低了计算复杂度。
Jun, 2023
SPT 是一种半参数化的提示微调方法,其包含一个内存库,可以根据离散提示检索记忆提示,并通过 Fine-Tuning GLUE 数据集以及在五个自然语言处理任务类别下评估零 - shot 泛化以及在 SuperGLUE 数据集上预训练,众多实验证明了其有效性。
Dec, 2022
通过在 transformer 模块的键和值中直接插入提示信息,我们提出了注意力提示调整(Attention Prompt Tuning,APT)方法,从而在视频行为识别中大大减少了浮点运算和延迟,并在 UCF101、HMDB51 和 SSv2 数据集上实现了显著的性能提升。
Mar, 2024