大型语言模型的图神经启动
通过 GraphPrompter 框架,将 Large Language Models(LLMs)与图形模态对齐,实现了 LLMs 在图相关任务中的重要性和效果。
Feb, 2024
该论文回顾了使用知识图谱增强的预训练模型的研究,详细介绍了现有的知识图谱增强预训练语言模型(KGPLMs)及其应用,并提出了基于知识图谱增强的大型语言模型(KGLLM)的思想以增强 LLM 的面向事实的推理能力,为 LLM 的研究开辟了新的途径。
Jun, 2023
我们提出了 InstructGLM(指导调整的图语言模型),基于自然语言说明系统地设计高度可扩展的提示,使用自然语言描述图的几何结构和节点特征,通过指导调优语言模型以一种生成方式在图上执行学习和推理,超过了所有竞争的 GNN 基准数据集,证明了我们方法的有效性,并为将生成语言模型替代 GNN 作为图机器学习的基础模型提供了启示。
Aug, 2023
NLGraph is a benchmark for large language models to solve graph-based problems in natural language, where two instruction-based approaches - Build-a-Graph Prompting and Algorithmic Prompting - are proposed, improving the LLMs' performance by 3.07% to 16.85% across multiple tasks and settings.
May, 2023
借助知识图谱,本研究探索了如何通过知识图谱向 LLMs 提供新知识和推理路径,并通过生成心智地图来解释 LLMs 的推理过程,实验证明 MindMap 方法在问答任务中显著提升了性能。
Aug, 2023
通过综述最新的最先进的用于图学习的大型语言模型,我们引入了一种新的分类方法,详细阐述了四种独特的设计,并探讨了每种框架的优势和局限性,同时强调了未来研究的潜在方向。
May, 2024
本文提出了使用知识图谱和大型语言模型的三种框架,分别为增强了的知识图谱、增强了的大型语言模型和协同增强。这三个框架能够互相协作,实现双向推理,提高自然语言处理和人工智能的表现,同时指出未来的研究方向。
Jun, 2023
在问答领域中,将大型语言模型与外部数据库结合已经取得了巨大的成功。然而,这些方法在提供复杂问答任务所需的高级推理方面常常效果不佳。为了解决这些问题,我们改进了一种称为 “知识图谱提示” 的新方法,该方法结合了知识图谱和基于大型语言模型的代理以提高推理和搜索准确性。然而,原始的知识图谱提示框架需要在大型数据集上进行昂贵的微调,并且仍然存在着大型语言模型幻觉的问题。因此,我们提出了一种注入推理能力的大型语言模型代理来增强该框架。这种代理模仿人类的好奇心来提问后续问题,以更高效地导航搜索。这种简单的改进显著提升了大型语言模型在问答任务中的性能,而无需承担初始 “知识图谱提示” 框架的高成本和延迟。我们的最终目标是进一步发展这种方法,在问答领域提供更准确、更快速、更具成本效益的解决方案。
Apr, 2024
图形语言模型(GLM)集成了线性文本模型(LM)和图神经网络(GNN)的优点,同时减轻它们的弱点,在有监督和零样本情况下,在概念网络的关系分类任务上超过了基于 LM 和 GNN 的基线。
Jan, 2024
本文提出了一种名为知识解决器(KSL)的范例,通过利用大型语言模型(LLMs)的强大概括能力,教给它们从外部知识库中搜索必要知识,并将检索过程转化为多跳决策序列,增强了 LLMs 的搜索能力,提高了推理过程的可解释性。在三个数据集上的实验证实,我们的方法相对基准模型的表现有很大的提升。
Sep, 2023