本研究聚焦于前缀调整 fine-tuning 技术,并提出了自适应前缀调整(APT)方法,结合门控机制实现对细粒度和粗粒度级别的前缀优化,实证实现了在 SuperGLUE 和 NER 数据集上的有效性和效率验证。
May, 2023
本文提出字首调整 (prefix-tuning),来解决专用模型使用全量预训练语言模型的空间问题,自动学习小、定制化的向量。通过应用于自然语言生成和文本总结,仅使用 0.1% 的参数即能达到很好的性能。
Jan, 2021
本文提出了一种基于编码器 - 解码器的模型,名为 Syntactically controlled Paraphrase Generator (SynPG),它可以从未注释的文本集合中学习将一句话的语义和语法分离的能力,从而生成语法各异的释义,而无需使用大量注释的释义对。自动评价和人工评价的实验结果表明,该模型在语法控制方面的表现优于无监督基线,同时生成的释义的质量也具有竞争力。同时,经过充分的训练,该模型的性能与有监督模型相媲美,甚至更好,使其生成的语法受控释义可以用于数据增强,以提高 NLP 模型的健壮性。
提出了一种新颖的轻量级的 GPT2 生成框架,该框架利用一组小的属性特定向量,称为前缀,来控制自然语言生成,其中前缀使用多方面控制的监督方法和无监督方法进行训练,实验结果表明,我们的方法可以引导生成达到期望的特性,同时保持高水平的语言质量。
Feb, 2022
本文提出了通过核方法理解 prefix-tuning,并将其发展为 inducer-tuning 来提高其性能,通过自然语言理解和生成任务的综合实验,证明了 inducer-tuning 可以缩小 prefix-tuning 和 fine-tuning 之间的性能差距。
Oct, 2022
我们提出了一种新的提示调整方法,Instruction-Aware Prompt Tuning (IAPT),该方法只需要四个软标记,并且在具有可调参数的情况下优于最近的基准方法,并比低秩适应性 (LoRA) 在单主干多租户设置下更高效。
May, 2024
本文提出了参数效率的 Retrieval Augmented Prompt Tuning(RAPT)和使用专门的提示标记的 Novelty Conditioned RAPT(NC-RAPT)作为控制不同水平词汇新颖性的简单模型无关方法,通过在四个数据集上进行广泛实验,证明了所提出的方法在诱导语义内容的同时诱导词汇新颖性的有效性。
为了简化知识导引对话系统的检索过程,本文提出了一种利用预训练语言模型中的固有知识编码的轻量级知识前缀注入方法,称为 Knowledgeable Prefix Tuning,并提出一种新颖的交互式重新参数化机制,使前缀完全与语言模型交互,并在实验中得到了成功的应用。
Jun, 2023
本文研究了利用 PLM 进行语义解析的问题,并比较了在数据较少和常规情况下,冻结 PLM 参数的前缀调整和偏置项调整两种新技术与全量和部分微调的性能。作者发现,通过添加特殊令牌嵌入的前缀调整方法可以在保持参数节省的同时,获得非常良好的性能。
Mar, 2022
通过向语料库单词的概率分布添加位移来控制语言生成,能保证给定的关键词出现,相比类似方法具有更高的效果。
Sep, 2021