通过统一模式提示来提高任务泛化能力
本文研究了三种 Prompt(包括 Human-designed,Schema 以及 Null prompt)在有监督 / 无监督场景下的有效性,最终发现 Schema prompt 可以提高训练效果,且随着数据规模的扩大,不同 Prompt 的表现越来越接近。
Mar, 2022
GraphPrompt 是一种基于图的新型预训练和提示框架,通过统一预训练和下游任务,并使用可学习的提示来帮助下游任务以任务特定的方式定位来自预训练模型的最相关知识,进一步提升了预训练和提示方面的性能。
Nov, 2023
该论文提出了一种统一的 Prompt Tuning (UPT) 框架,通过从非目标自然语言处理数据集中明确捕获提示语义,使 BERT 风格模型在少样本文本分类方面取得更好的性能,该框架引入了一种新的编程范例 Prompt-Options-Verbalizer,强制 PLMs 捕获任务不变提示知识,经过多任务学习后,该模型可以更好地针对任何不同的低资源任务进行提示调整。
May, 2022
本论文提出了一种特化 - 泛化训练策略 Match-Prompt,旨在帮助模型在不同的文本匹配任务中学习到本质的匹配信号,从而改善 Pre-trained Language Models 的多任务泛化能力和适应性。实验结果表明,Match-Prompt 在多个公共数据集上优于传统的 fine-tuning 策略。
Apr, 2022
提出基于任务语义角度构建的语境提示学习模型 STPrompt,其中两种基于语义依存关系树和任务特定元数据描述的新型提示被构建到提示增强池中,能自动选择合适的语义提示来激发提示学习过程,并在五种不同的少样本文本分类数据集上取得了最先进的性能。
Oct, 2022
本文旨在为多语言学习提供潜在的架构改进,通过开发一种名为 Polyglot Prompting 的学习框架,利用提示方法为不同的语言和任务学习一个统一的语义空间进行多语言多任务基于提示的学习,以实现跨语言的互助和更全面的实验评估,开创了未来多语言研究的新方向。
Apr, 2022
本文提出了一个新的在图上进行预训练和提示的框架 GraphPrompt,可以将预训练和下游任务统一到一个通用的任务模板中,并使用可学习的提示来以一种特定于任务的方式帮助下游任务定位来自预训练模型的最相关知识。在五个公共数据集上展开了广泛的实验来评估和分析 GraphPrompt。
Feb, 2023
本文介绍了一种使用神经语言模型的 zero-shot prompting 方法,在不需要监督训练的情况下解决 ad-hoc 语言任务。我们提出了 PromptIDE 工具,该工具可以帮助用户实验不同的提示词选择,以达到任务指标的优化和数据量的扩展。该工具已在多个现实世界的案例中得到了应用。
Aug, 2022