提出了一个大规模基准测试,用于评估半归纳链接预测模型,在不同实验中发现,半归纳链接预测表现远不及透视性能,在集成语境和文本信息的半归纳链接预测模型方面提供了进一步研究的测试平台。
Oct, 2023
本文通过一个综合评估协议,探讨了使用预测链接的实体表示学习,并考虑了线性预测和实体分类任务以及针对面向实体的搜索的信息检索任务,通过一个预训练的语言模型体系结构,证明这些学习的表示不仅适用于 KG 特定任务,还具有比之前的方法更强的泛化性能,同时也在其他任务方面表现出色。
Oct, 2020
研究使用图神经网络的归纳节点和关系结构表征方法对知识图谱中的新实体进行逻辑推理的方法,并实验发现归纳模型能够在推理时间内对未见节点进行推理,同时可以推广至训练天数 500%大的图表,表现出较高效率和效果平衡的特点。
Oct, 2022
本文提出了使用孪生神经网络的基于路径的归纳链接预测模型 SiaILP,仅依赖关系和路径嵌入,可泛化到新实体而无需微调,实验证明该模型在归纳版本的 WN18RR、FB15k-237 和 Nell995 的链接预测任务中取得了多个最新的最优性能。
Dec, 2023
该研究比较短缺实际的现有图谱的 16 种最新方法的有效性和效率,并考虑到一种基于规则的基线,提出了具有可扩展性的维度以评估嵌入 LP 方法的介绍。
Feb, 2020
本文提出了一种基于关系匿名游走引导的神经过程模型 RawNP,用于在知识图谱上进行少样本归纳链接预测,并在典型基准数据集上展示出了新的最先进性能。
Jun, 2023
利用大型语言模型 (LLMs) 并结合图结构提示的方法来增强预训练图神经网络 (GNNs) 的图谱归纳推理能力,通过实验证明该方法在低资源场景下的推理任务中表现出强大的鲁棒性和性能提升.
Feb, 2024
本文针对工业用例中初始缺乏有标注数据和分类信息的情况,讨论了建立特定领域知识模型的挑战,并提出了两种神经模型用于归纳链接预测。实验表明,这些模型在可链接的知识图数据减少的情况下能显著提高性能并且优于稀疏检索器。
Jan, 2023
本文提出了一种新颖的名为 RAILD 的关系感知归纳链接预测方法,该方法能够学习未见的实体和未见的关系的表征,并采用语言模型和图形化方法来生成特征。实验表明,RAILD 在 KG 完成任务上比现有的模型性能有了显著提高,并且还超过了我们创建的基线模型。
Nov, 2022
通过使用链式思维促进和上下文学习,该研究介绍了一种新方法,即知识图大型语言模型框架(KG-LLM),以提高知识图中多跳链接预测的效果。实验证明,集成上下文学习和链式思维不仅增加了方法的性能,而且显著提高了模型的泛化能力,从而在陌生情境中实现更准确的预测。
Mar, 2024