EMNLPOct, 2019

跨语言实体对齐与多方面信息

TL;DR本文研究使用基于嵌入的方法将不同语言的实体编码到同一向量空间中,并提出使用预训练的多语言 BERT 模型来融合各个语言中的实体描述,以寻找源语言和目标语言之间相应实体的方法。结果表明,该方法在两个基准数据集上明显优于现有系统。