Aug, 2021
自然语言处理中基于Transformer的预训练模型综述
AMMUS : A Survey of Transformer-based Pretrained Models in Natural
Language Processing
TL;DR本论文对基于Transformer的预训练语言模型进行了全面调查,并介绍了自监督学习、预训练方法、嵌入、下游适应方法等核心概念以及T-PTLMs的新分类法,提供了各种有用的库以及未来研究方向,该论文可作为学习核心概念和了解T-PTLMs近期进展的参考资料。