OKGIT: 基于隐式类型的开放知识图谱链接预测
提出了一种新颖的嵌入式知识图谱完整模型扩展,使其能够执行开放世界链接预测,该模型结合从文字语料库中学习的词嵌入和从知识图谱中学习的常规链接预测模型,通过独立训练这两个模型并进行变换,将实体名称和描述的嵌入映射到基于图的嵌入空间中,实验结果表明我们的方法在多个数据集上都取得了有竞争力的效果且无需对图和文本进行联合训练。
Jun, 2019
本研究旨在整合知识图谱的图嵌入和文本编码技术,以提高自动完成知识图谱的性能,实现更精确的链接预测和结构学习。实验结果表明,该方法能实现与文本编码方法相比1-2个数量级的推理成本减少和最先进的性能表现。
Apr, 2020
本文提出了一个基于因子图模型的框架JOCL,该框架整合了OKB规范化和链接两个关键任务,可以灵活地结合不同的信号,并能够扩展以适应任何新信号。在两个大规模OIE三元组数据集上进行的彻底实验研究表明,我们的框架在OKB规范化和链接任务方面的平均F1(准确性)方面均优于所有基线方法。
Dec, 2022
本文提出了一种 Complete Benchmark for Open KG Canonicalization(COMBO)数据集和基于预训练语言模型的基准模型来解决开放知识图谱三元组中主谓宾短语和关系的规范化问题,并且通过提出评估规范化类型的度量标准,证明了使用预训练语言模型对三元组中的每个短语进行嵌入编码可以更好地规范谓语和从属关系。
Feb, 2023
我们提出了KGT5-context,这是一个简单的序列到序列模型,用于知识图谱中的链接预测(LP)。我们的工作扩展了KGT5,该模型利用了知识图谱的文本特征,具有较小的模型尺寸且可扩展性。我们证明增加上下文信息可以减轻KGE模型的需求,从而获得良好预测性能。
May, 2023
本文介绍了一种以自然语言推理为基础的链接预测方法,将链接预测任务应用于维基百科文章,并在Data Science and Advanced Analytics 2023竞赛中取得了优异成绩。
Aug, 2023
通过使用链式思维促进和上下文学习,该研究介绍了一种新方法,即知识图大型语言模型框架(KG-LLM),以提高知识图中多跳链接预测的效果。实验证明,集成上下文学习和链式思维不仅增加了方法的性能,而且显著提高了模型的泛化能力,从而在陌生情境中实现更准确的预测。
Mar, 2024
构建大型开放知识库(OKBs)对于许多知识驱动的Web应用程序(如Web搜索)至关重要。然而,OKBs中的名词短语和关系短语常常存在冗余和歧义,因此需要研究OKB规范化。本文提出了一种名为MulCanon的多任务学习框架,用于解决OKB规范化问题,并通过扩散模型在软聚类过程中改进名词短语的表示,以获得更准确的表示。MulCanon统一了这些子任务的学习目标,并采用两阶段多任务学习范式进行训练。对知名OKB规范化基准的彻底实验研究验证了MulCanon能够实现具有竞争力的规范化结果。
Mar, 2024
该研究提出了一种名为LinkLogic的简单连接预测解释方法,并构建了第一个基于家族结构的连接预测解释基准,以定量和定性评估生成的解释的忠实度、选择性和相关性。
Jun, 2024