GUNDAM:使大型语言模型与图理解对齐
通过一种新的框架GraphText,将图形转化为自然语言,无需图数据训练,能够实现与监督训练图神经网络相媲美甚至超越其性能的图推理,同时为人类和大型语言模型提供了与模型无缝交流的方式,突显了大型语言模型在图机器学习领域尚未探索的巨大潜力。
Oct, 2023
在该研究中,我们通过对大型语言模型在图预测任务的性能进行实验,评估它们是否能有效处理图数据并利用拓扑结构提高性能;通过与专门的图神经网络进行比较,我们对大型语言模型在图分析中的优势和局限性提供了见解,并为将它们应用于图分析提供了进一步的探索方向。
Oct, 2023
通过将图学习模型与大型语言模型(LLMs)有机地融合,我们介绍了GraphLLM,一种能够使LLMs能够熟练解释和推理图数据的先导性端到端方法,经过多个基础图推理任务的实证评估,结果展示了平均准确率提高54.44%以及各种图推理任务中96.45%的显著上下文减少。
Oct, 2023
通过对大型语言模型在图形上的应用的详细技术和潜在场景进行系统回顾,我们总结了大型语言模型在纯图、文本丰富图和文本配对图中的优缺点,并讨论了其在真实世界应用中的方法以及开源代码和基准数据集。最后,我们提出了这一快速发展领域的潜在未来研究方向。
Dec, 2023
利用大型语言模型和图表示学的集成标志着复杂数据结构分析的重大进展,通过利用LLM的先进语言能力来改善图模型的上下文理解和适应性,从而拓宽了GRL的范围和潜力。本研究通过提出一种新颖的分类法,深入分析了LLM与GRL之间的核心组成部分和操作技术,填补了目前缺乏的综述研究。我们进一步将近期文献分解为两个主要组成部分,包括知识提取器和整理器,以及两种操作技术,包括集成和训练策略,以揭示有效的模型设计和训练策略,并探讨了这一新兴但尚未充分探索的领域的潜在未来研究方向,为持续进展提出了路径。
Feb, 2024
大型语言模型在自然语言处理方面取得了显著的成功,但最近的研究发现它们在处理图形结构数据的推理能力方面存在局限。为了填补这一空白,我们引入了GraphEval2000,这是第一个包含40个图形数据结构问题和2000个测试用例的综合性图形数据集。此外,我们引入了基于GraphEval2000的评估框架,用于通过编码挑战评估LLM的图形推理能力。我们的数据集将测试用例分为四个主要类别和四个次要类别,确保全面评估。我们评估了八个流行的LLM在GraphEval2000上的表现,发现LLM在理解有向图方面比无向图更好。虽然私有LLM一直在超越开源模型,但性能差距正在缩小。此外,为了提高我们评估框架的可用性,我们提出了一种基于指令的方法Structured Symbolic Decomposition(SSD),它旨在提高LLM在GraphEval2000上的性能。结果显示,SSD 在复杂图形问题上提高了GPT-3.5、GPT-4和GPT-4o的性能,分别增加了11.11%、33.37%和33.37%。
Jun, 2024
本研究针对大型语言模型在图推理任务中的表现进行分析,揭示了其在图结构理解方面的缺陷。通过深入探讨图描述翻译、图连通性和最短路径问题,研究结果表明语言模型在这些基本任务中存在显著的性能差异,尤其是在文本描述的图结构理解上表现不佳。
Aug, 2024