BriefGPT.xyz
大模型
Ask
alpha
关键词
dynamic global attention
搜索结果 - 1
EMNLP
CDLM: 跨文档语言建模
该研究提出了一种新的预训练方法,针对多文档语言建模,包括两个关键思想:一是通过预训练多个相关文档集合,鼓励模型学习跨文档关系;二是通过引入动态全局注意力,改善最近的长距离 Transformer,以访问整个输入来预测掩码标记。 CDLM 是
→
PDF
4 years ago
Prev
Next