May, 2022
针对少样本文本分类的统一提示调整
Towards Unified Prompt Tuning for Few-shot Text Classification
Jianing Wang, Chengyu Wang, Fuli Luo, Chuanqi Tan, Minghui Qiu...
TL;DR该论文提出了一种统一的 Prompt Tuning (UPT) 框架,通过从非目标自然语言处理数据集中明确捕获提示语义,使 BERT 风格模型在少样本文本分类方面取得更好的性能,该框架引入了一种新的编程范例 Prompt-Options-Verbalizer,强制 PLMs 捕获任务不变提示知识,经过多任务学习后,该模型可以更好地针对任何不同的低资源任务进行提示调整。