UniPCM:具备任务感知自动提示的通用预训练对话模型
本文提出了一种使用 UniPrompt 的新型模型,其使用单一的多语言 prompt 并且具有语言不可知性,可以显著提高在零样本跨语言设置下的转移性能。
Feb, 2022
该论文提出了一种统一的 Prompt Tuning (UPT) 框架,通过从非目标自然语言处理数据集中明确捕获提示语义,使 BERT 风格模型在少样本文本分类方面取得更好的性能,该框架引入了一种新的编程范例 Prompt-Options-Verbalizer,强制 PLMs 捕获任务不变提示知识,经过多任务学习后,该模型可以更好地针对任何不同的低资源任务进行提示调整。
May, 2022
该研究提出了一种名为 Unified Schema Prompt 的灵活可扩展的提示方法,通过利用每个任务的输入结构来自动自定义学习提示,以增强任务的泛化能力,并在一系列 NLP 任务中进行了实验验证。
Aug, 2022
本文旨在为多语言学习提供潜在的架构改进,通过开发一种名为 Polyglot Prompting 的学习框架,利用提示方法为不同的语言和任务学习一个统一的语义空间进行多语言多任务基于提示的学习,以实现跨语言的互助和更全面的实验评估,开创了未来多语言研究的新方向。
Apr, 2022
本文提出了一种名为 Multi-task Pre-trained Modular Prompt (MP2) 的方法,通过预训练可组合的 prompts 并进行选择性的激活和组合,加强 Prompt Tuning 在 few-shot learning 的应用。通过 Black-box tuning 和 Gradient descent 两种学习方式的实验,表明 MP2 在 few-shot 设置下明显优于 Prompt Tuning、Full model Tuning 以及先前的 Prompt pre-training 方法。此外,我们还证明了 MP2 可以通过学习仅有 8 个参数来实现令人惊讶的快速适应 Downstream tasks。
Oct, 2022
通过提出多维任务提示学习方法(MTPrompt),将更多的任务相关信息嵌入提示中,以激发大型语言模型中嵌入的知识,从而实现在少样本和五个不同数据集上取得最佳结果,并在不同实验设置和削减实验中展示了该方法的有效性和稳定性。
Dec, 2023
该研究中提出了一种名为 SpeechComposer 的新型仅解码语音语言模型,通过组合一组固定的提示标记,可以统一常见的语音任务,从而改进了基准模型的性能。
Jan, 2024
本篇论文提出了一种创新的统一知识提示预训练框架 UFA(Unified Model For All Tasks),系统地解决了客户服务对话任务中的各种需求,通过混合不同的对话任务进行学习,显著提高了自然语言理解和生成的基准。
Aug, 2022
通过研究,我们提出了一种自适应提示设计方法,能够使用只有少量未标记的数据和仅推理的 LLM 实现广泛的零 - shot 学习,该方法通过将 NLP 任务分类为三种类型,并使用相应的选择器选择最合适的查询和零 - shot 模型生成的响应作为伪证明,以完全自动化的方式将 ICL 推广到零 - shot 设置,从而呈现与少量 - shot 基线可比甚至优于的表现。
May, 2023