Apr, 2024

通过语句调整在编码模型上实现自然零样本提示

TL;DR使用 Statement-Tuning 技术,通过对有限的陈述进行建模,训练一个编码器模型来确定标签,实现跨任务泛化,并展示相比于最先进的大型语言模型状态,Statement Tuning 具有竞争性能且参数更少,研究还探索了几个设计选择对少样本和零样本泛化的影响,揭示 Statement Tuning 能够在适度的训练数据下达到足够的性能,并从任务和陈述的多样性中获益,使得对未见任务的泛化性更好。