ACLApr, 2022
大规模语言模型语境学习中预训练语料对效果的影响
On the Effect of Pretraining Corpora on In-context Learning by a Large-scale Language Model
Seongjin Shin, Sang-Woo Lee, Hwijeen Ahn, Sungdong Kim, HyoungSeok Kim...
TL;DR研究了韩国中心型 GPT-3 模型 HyperCLOVA 中的上下文零样本和少样本学习,发现性能主要取决于语料库域源和预训练语料库的大小,可以通过组合多个语料库预先训练获得上下文学习能力.