DSKG:一种用于知识图谱补全的深度顺序模型
该研究提出了一种用于高度关联知识图谱(HKGs)补全的方法,该方法引入了两个新修订:一是用轻量级实体/关系嵌入处理技术替换计算量大的图神经网络模块以提高计算效率;二是增加一个定向于合格证的辅助训练任务以提高该方法的预测能力,并且该方法在三个基准数据集上的实验中始终优于STARE,计算效率显著提高。
Apr, 2021
本文提出一种基于文本实体表示的卷积神经网络,用于知识图谱补全,实验结果表明,该模型在稀疏情况下表现出色,结合实体重排技术,进一步提高了补全效果。
Jun, 2021
本论文提出GenKGC方法,运用预训练语言模型将知识图谱补全转化为序列生成任务,结合关系引导演示和实体感知分层解码以实现更好的表示学习和更快的推理,并在三个数据集上进行实验,结果表明该方法比基线更优或具有可比较的性能,与预训练语言模型先前的方法相比,具有更快的推理速度。此外,我们还发布了一个新的大规模中文知识图谱数据集AliopenKG500供研究使用。
Feb, 2022
本文提出了一种通过图神经网络对实体邻域进行建模的增强型框架用于知识图谱补全,同时引入额外的边链接预测任务。评估结果表明,该框架简单且有效,并且能够做出可解释预测。
Feb, 2023
本文介绍了一种名为CKGC-CKD的新方法,通过使用关系感知图卷积网络编码模型在集成的知识图谱和各自的知识图谱上进行训练,以最大程度地利用来自不同知识图谱的集体知识,从而缓解了个体知识图谱的不完整性,并通过相互知识蒸馏机制来进行知识传递,在多语言数据集上取得了比所有先进模型更好的知识图谱完成结果。
May, 2023
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系描述作为提示,并利用生成的响应进行预测。在各种基准知识图上的实验证明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能水平。我们还发现,微调相对较小的模型(例如LLaMA-7B,ChatGLM-6B)优于最新的ChatGPT和GPT-4。
Aug, 2023
MPIKGC是一个通用框架,利用大型语言模型从不同的角度查询以补偿环境化知识的不足,改进了基于描述的知识图补全方法,扩展了实体描述,理解关系,并提取结构,通过四种基于描述的知识图补全模型和四个数据集进行了广泛评估,适用于链接预测和三元组分类任务。
Mar, 2024
本研究针对知识图谱补全(KGC)中现有方法不足以充分利用所有特征及外部语义知识的问题,提出了MUSE模型。MUSE通过多知识表示学习机制,创建了一个三维的专用嵌入空间来预测缺失关系,显示出在四个公开数据集上的显著性能提升,尤其在NELL995数据集上H@1提高了5.50%,MRR提高了4.20%。
Aug, 2024
本研究解决了现有知识图谱补全(KGC)方法未充分利用知识图谱特征及外部语义知识的问题。提出了一种知识感知推理模型(MUSE),通过三种并行组件设计多知识表示学习机制来预测缺失关系。实验证明,MUSE在多个数据集上显著优于其他基线模型,提升了关系预测的准确性。
Sep, 2024
本研究解决了现有知识图完成(KGC)方法依赖于事实三元组,导致结果可能与常识不符的问题。提出了一种可插拔的常识增强框架,该框架能够从事实三元组自动生成显式或隐式常识,并在多个KGC任务中表现出良好的可扩展性和性能。此方法可与多种知识图嵌入模型集成,促进常识与事实驱动的共同训练和推理。
Oct, 2024