Jun, 2019
XLNet:语言理解的泛化自回归预训练
XLNet: Generalized Autoregressive Pretraining for Language Understanding
Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov...
TL;DR我们提出了 XLNet—— 一种广义的自回归预训练方法,它通过最大化分解顺序的所有排列的期望似然来学习双向上下文,并且集成了 Transformer-XL 的思想,从而在 20 项任务中胜过了 BERT,包括问题回答、自然语言推断、情感分析和文档排名等方面。