Dec, 2022

Z-ICL: 伪示例下的零样本上下文学习

TL;DR介绍了一种新的零样本方法 Z-ICL,通过使用文本语料库为给定的测试输入构造伪演示来缩小性能差距,并在九个分类数据集上的评估表明,Z-ICL 明显优于以前的零样本方法,并且与带标记训练数据的上下文学习在少样本学习中不相上下。