ACLMar, 2022

序列到序列的知识图谱补全与问答

TL;DR本研究使用 Transformer 模型代替传统知识图谱嵌入模型 (KGE) 的原子嵌入表示,将 KG link prediction 问题转化为序列到序列任务以及使用自回归解码。相比于传统 KGE 模型,这种简单而强大的方法在保持推理时间可控的同时,将模型大小减少了多达 98%,在不进行过多超参数调整的情况下,在多个大型数据集上的表现优于基线。