EMNLPNov, 2021

利用大量多语种知识三元组增强多语言模型

TL;DR本文提出了使用多语言知识图谱三元组进行直接训练的基于知识的多语言语言模型。通过生成大量的多语言合成句子并设计预训练任务,实现了 KMLMs 对事实知识和逻辑模式的学习,并在跨语言任务中展示了显著的性能提升,包括命名实体识别(NER)、事实知识检索、关系分类和新设计的逻辑推理任务。