EMNLPJan, 2021

CDLM: 跨文档语言建模

TL;DR该研究提出了一种新的预训练方法,针对多文档语言建模,包括两个关键思想:一是通过预训练多个相关文档集合,鼓励模型学习跨文档关系;二是通过引入动态全局注意力,改善最近的长距离 Transformer,以访问整个输入来预测掩码标记。 CDLM 是一个新的通用的多文档语言模型,可以轻松应用于下游任务。