知识图谱大规模语言模型(KG-LLM)用于链接预测
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为 Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系描述作为提示,并利用生成的响应进行预测。在各种基准知识图上的实验证明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能水平。我们还发现,微调相对较小的模型(例如 LLaMA-7B,ChatGLM-6B)优于最新的 ChatGPT 和 GPT-4。
Aug, 2023
本研究调查了大型语言模型(LLMs)与知识图谱(KGs)之间的协同关系,旨在探讨 KG 问答、本体生成、KG 验证以及通过 LLMs 提高 KG 准确性和一致性等领域的研究空白。该论文还检验了 LLMs 在生成描述性文本和自然语言查询方面的作用,并通过分类 LLM-KG 交互、研究方法论和合作使用以及潜在偏见等结构化分析,提供了它们的结合潜力的新见解。该研究强调了它们的交互对于提升人工智能应用的重要性,并概述了未来的研究方向。
Jun, 2024
提出了一种整合了大型语言模型和三元组为基础的知识图谱完成方法,名为 KICGPT,通过使用知识提示来解决长尾问题并改进效率,而无需额外的训练和微调。
Feb, 2024
提出了一个称为 KELP 的基于知识图谱的大型语言模型的框架来解决幻觉问题,通过生成与输入文本的潜在语义匹配程度评分,实现对知识路径的精细提取,同时通过已训练的编码器考虑与输入文本间具有间接语义关系的知识路径。实验验证了 KELP 的有效性。
Jun, 2024
本文提出了使用知识图谱和大型语言模型的三种框架,分别为增强了的知识图谱、增强了的大型语言模型和协同增强。这三个框架能够互相协作,实现双向推理,提高自然语言处理和人工智能的表现,同时指出未来的研究方向。
Jun, 2023
利用大型语言模型 (LLMs) 和知识图谱 (KG) 的协作训练方法,本研究在知识图谱的指导下,通过迭代探索和选择性地检索任务相关的知识子图来支持推理,使得 LLMs 能更可靠地进行基于知识的推理,并同时明确阐述推理过程,实验结果表明本方法在多个数据集上显著改进,尤其在 QALD10 数据集上相对于最佳基线和最先进的方法提高了超过 10%,为今后的知识图谱和大型语言模型融合研究提供了有价值的参考,提升 LLMs 在解决复杂问题上的能力。
Feb, 2024
在个性化教育时代,为学习推荐提供易于理解的解释对增强学习者的理解和参与推荐的学习内容具有巨大价值。本文提出了一种利用知识图谱作为意见引擎源的方法,以减小语言模型模型的错误生成的风险,并确保高精度地满足学习者的意图,同时保持有关应用的学习上下文。我们利用知识图谱中的语义关系提供关于学习推荐的精心策划的知识。通过将领域专家纳入研究的提示工程阶段,设计解释模板,由语言模型进行填充和完成来确保解释包含与学习者相关的信息。我们定量评估了我们的方法使用 Rouge-N 和 Rouge-L 指标,并进行了与专家和学习者的质性评估。我们的结果表明,与仅由 GPT 模型生成的解释相比,生成的解释具有更高的召回率和准确度,并且极大地降低了最终学习解释中生成不准确信息的风险。
Mar, 2024
通过将大型语言模型(LLM)和知识图谱(KG)结合为传统方法的语义表示形式,该研究提出了一个新的通用框架,以准确地推荐候选新闻文章给用户,从而改善了新闻推荐系统中的个性化推荐效果。
Aug, 2023
我们通过复杂问题回答作为任务,对比了不同的知识图谱注入方法,旨在探索最佳提供知识图谱给大型语言模型的提示方法,从而增强其对知识图谱的理解能力。与预期相反,我们的分析发现,大型语言模型能够有效处理混乱、噪音和线性化的知识图谱知识,并且表现优于使用设计良好的自然语言文本提示的方法。这一反直觉的发现为未来关于大型语言模型理解结构化知识的研究提供了重要见解。
Feb, 2024