EMNLPMay, 2022

关于双向性在语言模型预训练中的作用

TL;DR本文探讨了语言模型预训练的双向性作为不同方法的关键因素,并提出了一个新的框架,能够控制双向上下文和双向注意力等两种表现形式。研究表明,最佳配置因应用而异,但大规模双向模型的作用值得探究。