探索大型语言模型在图学习中的潜力
通过综述最新的最先进的用于图学习的大型语言模型,我们引入了一种新的分类方法,详细阐述了四种独特的设计,并探讨了每种框架的优势和局限性,同时强调了未来研究的潜在方向。
May, 2024
通过采用轻量级范式 ENG 以 Large Language Models 为基础,增强文本属性的图数据,包括通过节点生成使用 LLMs 提取语义信息和生成样本,以及通过边缘预测器将新生成的样本与原始图结合,从而在少样本情况下促进节点分类任务。
Oct, 2023
通过对大型语言模型在图形上的应用的详细技术和潜在场景进行系统回顾,我们总结了大型语言模型在纯图、文本丰富图和文本配对图中的优缺点,并讨论了其在真实世界应用中的方法以及开源代码和基准数据集。最后,我们提出了这一快速发展领域的潜在未来研究方向。
Dec, 2023
利用大型语言模型在图学习任务中的潜力,本研究探索了如何利用信息检索和文本生成能力来提高文本属性图的拓扑结构,进而增强节点分类的性能。通过节点属性的语义相似度,采用大型语言模型来删除不可靠的边并添加可靠的边,以及利用大型语言模型生成的伪标签改善图的拓扑结构。实验证明使用大型语言模型进行图拓扑改善在公共基准测试中提升了 0.15% 至 2.47% 的性能。
Nov, 2023
在 LLMs 时代,通过综述文章,我们首先回顾了图机器学习的最新发展,然后探讨了 LLMs 如何提高图特征的质量,减少对标记数据的依赖,并解决图的异质性和分布外泛化等挑战。此外,我们研究了图如何增强 LLMs,并突出它们在 LLMs 的预训练和推理中的能力。最后,我们探讨了这个有前景的领域的各种应用和潜在的未来方向。
Apr, 2024
在该研究中,我们通过对大型语言模型在图预测任务的性能进行实验,评估它们是否能有效处理图数据并利用拓扑结构提高性能;通过与专门的图神经网络进行比较,我们对大型语言模型在图分析中的优势和局限性提供了见解,并为将它们应用于图分析提供了进一步的探索方向。
Oct, 2023
在本调查中,我们首先提出了一种新的分类法,该分类法将现有方法根据 LLMs 在图相关任务中所扮演的角色(增强器、预测器和对齐组件)分为三类,并对这三类中的代表性方法进行了系统调查。我们还讨论了现有研究的局限性,并强调了未来研究的有希望的方向。
Nov, 2023
该文介绍了一种利用大型语言模型和图神经网络相结合的无标签节点分类方法 LLM-GNN,在小部分节点上利用语言模型进行注释,然后使用图神经网络对其余大部分节点进行预测,通过开发注释质量启发式和利用语言模型的置信度得分来选择节点,从而提高图神经网络的性能,实验证明了 LLM-GNN 的有效性。
Oct, 2023
我们提出了 InstructGLM(指导调整的图语言模型),基于自然语言说明系统地设计高度可扩展的提示,使用自然语言描述图的几何结构和节点特征,通过指导调优语言模型以一种生成方式在图上执行学习和推理,超过了所有竞争的 GNN 基准数据集,证明了我们方法的有效性,并为将生成语言模型替代 GNN 作为图机器学习的基础模型提供了启示。
Aug, 2023
本文介绍了 LLM4GraphGen 模型,通过系统性任务设计和广泛的实验探索了大型语言模型在图生成方面的能力,并表明 GPT-4 在图生成任务中展现了初步能力,包括基于规则和分布的生成,同时发现流行的提示方法并不一致地提升性能。此外,LLM 在生成具有特定属性的分子方面展现了潜力,这些发现为基于 LLMs 的图生成模型的设计提供了基础,并提供了有价值的见解和进一步的研究方向。
Mar, 2024