ACLJun, 2024

预训练语言模型结合知识约束的多语言知识图谱补全

TL;DR通过引入全局和局部知识约束,本文提出了一种用于多语言知识图谱补全的预训练模型,使其更好地适应 mKGC 任务,并在公共数据集上实验证明该方法在 Hits@1 和 Hits@10 方面的性能优于现有研究,平均提升了 12.32% 和 16.03%。