EMNLPOct, 2022

语言模型分解:量化语言模型的依赖和相关性

TL;DR本文提出了一种基于线性依赖性的语言模型分解(LMD)方法,研究了预训练语言模型(如 BERT)之间的线性依赖关系,并且发现现有预训练语言模型之间高度相关,为了进一步推进最先进技术,需要更加多元化和新颖的模型。