Oct, 2022
模型集成而非提示融合:针对少样本提示调整的样本特定知识迁移方法
Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning
TL;DR本文关注于如何提高Prompt tuning在few-shot learning任务中的性能。作者们实现了带有多种source prompts的简单方法,通过进行模型输出的组合来达到更好的性能,并提出了Sample-specific Ensemble of Source Models (SESoM)方法。他们在八个NLP任务上进行了实验,通过一个大的优势超越了相同和大型参数规模的现有模型。