Apr, 2021

基于少样本学习的蕴涵推理

TL;DR本研究提出了一种名为 EFL 的新方法,将潜在的自然语言处理任务重新表述为蕴含任务,并在少至 8 个样例的情况下微调模型,进而证明该方法可以自然地与无监督对比学习数据增强方法相结合,易于扩展为多语言少样本学习,并在 18 个标准 NLP 任务上进行了系统评估,表明该方法将现有 SOTA 少样本学习方法的性能提高了 12%,在相同数据量下,可以达到与 GPT-3 相近的少样本性能