DSKG:一种用于知识图谱补全的深度顺序模型
本文介绍了基于嵌入式知识图谱网络的知识库完成方法,通过使用端到端反向传播训练,可以将大型知识库压缩成优化的版本,并在知识库完成基准测试中取得了最新的最佳结果。
Nov, 2016
本文提出了一种基于嵌入模型的一次性关系学习框架,将已有的知识和一跳图结构相结合,来预测在只有一个训练样例的情况下的新事实,并通过实验证明,在新关系预测和嵌入模型训练上,该模型具有巨大的性能优势。
Aug, 2018
本研究使用 Transformer 模型代替传统知识图谱嵌入模型 (KGE) 的原子嵌入表示,将 KG link prediction 问题转化为序列到序列任务以及使用自回归解码。相比于传统 KGE 模型,这种简单而强大的方法在保持推理时间可控的同时,将模型大小减少了多达 98%,在不进行过多超参数调整的情况下,在多个大型数据集上的表现优于基线。
Mar, 2022
该研究提出了一种用于高度关联知识图谱 (HKGs) 补全的方法,该方法引入了两个新修订:一是用轻量级实体 / 关系嵌入处理技术替换计算量大的图神经网络模块以提高计算效率;二是增加一个定向于合格证的辅助训练任务以提高该方法的预测能力,并且该方法在三个基准数据集上的实验中始终优于 STARE,计算效率显著提高。
Apr, 2021
本研究提出使用预训练语言模型来完成知识图谱,使用 KG-BERT 架构对知识图谱中的三元组进行建模,通过实验结果显示,该方法在三元组分类、链接预测和关系预测任务中均可以达到最佳表现。
Sep, 2019
本论文提出 GenKGC 方法,运用预训练语言模型将知识图谱补全转化为序列生成任务,结合关系引导演示和实体感知分层解码以实现更好的表示学习和更快的推理,并在三个数据集上进行实验,结果表明该方法比基线更优或具有可比较的性能,与预训练语言模型先前的方法相比,具有更快的推理速度。此外,我们还发布了一个新的大规模中文知识图谱数据集 AliopenKG500 供研究使用。
Feb, 2022
该研究提出一种基于信息检索和阅读理解的知识图谱自动完成模型,在实验中发现该模型可以很好地解决无法从现有知识中推断的关系,并在多个知识图谱自动完成数据集上取得良好结果。
Oct, 2022
本文提出了一种利用预训练的 transformer 语言模型来执行学术知识图谱补全的方法 ——exBERT,并在三个学术知识图谱完成数据集上表现优异,还提供了两个学术数据集作为资源。
Nov, 2021
本研究通过对少样本知识图谱自动补全任务的学习方法、任务应用、以及未来研究领域的调查和总结,提出了一种使用图形表示学习和少样本学习优势的 FKGC 方法,以期解决常规 KG 和 CKG 补全任务中长尾关系及新关系的问题,并在不同领域的预测任务中应用 FKGC 模型。
Jan, 2023