ACLJun, 2024
预训练语言模型结合知识约束的多语言知识图谱补全
Multilingual Knowledge Graph Completion from Pretrained Language Models with Knowledge Constraints
Ran Song, Shizhu He, Shengxiang Gao, Li Cai, Kang Liu...
TL;DR通过引入全局和局部知识约束,本文提出了一种用于多语言知识图谱补全的预训练模型,使其更好地适应 mKGC 任务,并在公共数据集上实验证明该方法在 Hits@1 和 Hits@10 方面的性能优于现有研究,平均提升了 12.32% 和 16.03%。