Oct, 2022

模型集成而非提示融合:针对少样本提示调整的样本特定知识迁移方法

TL;DR本文关注于如何提高 Prompt tuning 在 few-shot learning 任务中的性能。作者们实现了带有多种 source prompts 的简单方法,通过进行模型输出的组合来达到更好的性能,并提出了 Sample-specific Ensemble of Source Models (SESoM) 方法。他们在八个 NLP 任务上进行了实验,通过一个大的优势超越了相同和大型参数规模的现有模型。