ACLMar, 2021

GLM: 基于自回归空白填充的通用语言模型预训练

TL;DR本文提出了一种基于自回归的空白填充预训练方法称为 GLM,该方法通过添加 2D 位置编码和允许任意顺序来预测跨度来改进填空预训练。实验证明 GLM 在自然语言理解、有条件和无条件生成任务上的性能表现要好于 BERT、T5 和 GPT,预训练时还可以将空白的数量和长度改变以适应不同的任务类型。