KICGPT:具有上下文知识的大型语言模型用于知识图谱推理
MPIKGC 是一个通用框架,利用大型语言模型从不同的角度查询以补偿环境化知识的不足,改进了基于描述的知识图补全方法,扩展了实体描述,理解关系,并提取结构,通过四种基于描述的知识图补全模型和四个数据集进行了广泛评估,适用于链接预测和三元组分类任务。
Mar, 2024
本研究使用文本为基础的方法提升了知识图谱补全的效果,并通过引入约束型提示来改善大型语言模型生成的文本质量,该方法在低资源计算条件下展现了有效的推理能力,并在 WN18RR 和 FB15K237 数据集上超越了之前的结果,为将大型语言模型应用于知识图谱补全任务提供了新的研究方向。
Oct, 2023
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为 Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系描述作为提示,并利用生成的响应进行预测。在各种基准知识图上的实验证明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能水平。我们还发现,微调相对较小的模型(例如 LLaMA-7B,ChatGLM-6B)优于最新的 ChatGPT 和 GPT-4。
Aug, 2023
利用大型语言模型(LLM)的结构感知推理能力,将知识图谱(KG)中的结构信息嵌入到 LLMs 中,从而提高 LLMs 的知识推理能力。我们提出了一种结构感知推理框架,并通过实验证明了引入结构信息对 LLMs 的知识推理能力的改进效果。
Oct, 2023
通过引入全局和局部知识约束,本文提出了一种用于多语言知识图谱补全的预训练模型,使其更好地适应 mKGC 任务,并在公共数据集上实验证明该方法在 Hits@1 和 Hits@10 方面的性能优于现有研究,平均提升了 12.32% 和 16.03%。
Jun, 2024
通过将大型语言模型与知识库相结合,KnowledGPT 能够更好地回答涉及世界知识的更广泛问题,利用广为人知的知识库和个性化知识库中的知识。
Aug, 2023
通过使用链式思维促进和上下文学习,该研究介绍了一种新方法,即知识图大型语言模型框架(KG-LLM),以提高知识图中多跳链接预测的效果。实验证明,集成上下文学习和链式思维不仅增加了方法的性能,而且显著提高了模型的泛化能力,从而在陌生情境中实现更准确的预测。
Mar, 2024
该研究提出一种基于信息检索和阅读理解的知识图谱自动完成模型,在实验中发现该模型可以很好地解决无法从现有知识中推断的关系,并在多个知识图谱自动完成数据集上取得良好结果。
Oct, 2022
我们提出了一种改进基于语言模型的知识图谱补全方法,通过包含节点邻域作为附加信息,提高了预测效果,并且在多种评估数据集上优于传统方法和基于语言模型的 KGC 方法。我们还对邻域对模型预测的影响进行了详细分析,并指出了通过更有效的邻域选择来显著改进 KGC 的方向。
Nov, 2023
KG-GPT 是一个多功能框架,利用大型语言模型(LLMs)进行知识图谱(KGs)相关任务的复杂推理,将句子分割、检索相关图谱组件和推导逻辑结论分为三个步骤。我们通过使用基于 KG 的事实验证和 KGQA 基准来评估 KG-GPT,发现该模型表现出竞争力和稳健性,甚至胜过几个完全监督的模型。因此,我们的工作在统一 LLMs 的结构化和非结构化数据处理方面迈出了重要的一步。
Oct, 2023