ACLJun, 2021

重排样例有助于基于 Priming 的少样本学习

TL;DR本研究利用输入提示文本来增强 NLP 模型的几发学习能力,并针对使用示例作为提示进一步探究,提出了 PERO 方法,并表明适当排列示例是关键。通过该方法,只需少于十个示例即可实现有效的泛化,且学习到的提示方式能够揭示出对情感分类和自然语言推理具有竞争力的新想法,并能够适用于事实检索任务。