Dec, 2022

Go-tuning:提高较小语言模型的零样本学习能力

TL;DR本文探讨如何在较小模型的规模下,通过几何引导的自监督学习方法进行任务感知的自监督数据调整,实现与大型语言模型相当的零样本能力。Go-tuning 方法的实验表明 T5-small(80M)能够达到 T5-XL(3B)的竞争零样本结果,并开发了一个多任务模型 mgo-T5(250M),达到九个数据集的 OPT(175B)的平均性能。