我们能否将软提示应用于图学习任务的LLM?
本文提出了一个新的在图上进行预训练和提示的框架GraphPrompt,可以将预训练和下游任务统一到一个通用的任务模板中,并使用可学习的提示来以一种特定于任务的方式帮助下游任务定位来自预训练模型的最相关知识。在五个公共数据集上展开了广泛的实验来评估和分析GraphPrompt。
Feb, 2023
本文旨在通过图形推理方法对大型语言模型进行增强,以使其能够完成复杂的图形学习任务,包括基本的图形数据推理和更高级的实际应用推理,我们提出了一个名为Graph-ToolFormer的框架,并在各种图形推理数据集和任务上进行了初步的实验研究。
Apr, 2023
本文旨在探索使用大型语言模型(LLMs)进行图机器学习的潜力,特别是节点分类任务,并调查两种潜在的流程:LLMs作为增强器和LLMs作为预测器。通过全面而系统的研究,我们获得了原创性观察并发现新的见解,为利用LLMs进行图学习提供了新的可能性和有希望的方向。
Jul, 2023
在该研究中,我们通过对大型语言模型在图预测任务的性能进行实验,评估它们是否能有效处理图数据并利用拓扑结构提高性能;通过与专门的图神经网络进行比较,我们对大型语言模型在图分析中的优势和局限性提供了见解,并为将它们应用于图分析提供了进一步的探索方向。
Oct, 2023
在本调查中,我们首先提出了一种新的分类法,该分类法将现有方法根据LLMs在图相关任务中所扮演的角色(增强器、预测器和对齐组件)分为三类,并对这三类中的代表性方法进行了系统调查。我们还讨论了现有研究的局限性,并强调了未来研究的有希望的方向。
Nov, 2023
通过对大型语言模型在图形上的应用的详细技术和潜在场景进行系统回顾,我们总结了大型语言模型在纯图、文本丰富图和文本配对图中的优缺点,并讨论了其在真实世界应用中的方法以及开源代码和基准数据集。最后,我们提出了这一快速发展领域的潜在未来研究方向。
Dec, 2023
在LLMs时代,通过综述文章,我们首先回顾了图机器学习的最新发展,然后探讨了LLMs如何提高图特征的质量,减少对标记数据的依赖,并解决图的异质性和分布外泛化等挑战。此外,我们研究了图如何增强LLMs,并突出它们在LLMs的预训练和推理中的能力。最后,我们探讨了这个有前景的领域的各种应用和潜在的未来方向。
Apr, 2024
通过综述最新的最先进的用于图学习的大型语言模型,我们引入了一种新的分类方法,详细阐述了四种独特的设计,并探讨了每种框架的优势和局限性,同时强调了未来研究的潜在方向。
May, 2024
该论文研究了将图模态集成到大型语言模型中,以提升其在图解指令任务中的性能表现,并通过图嵌入训练模型,使其能够理解和基于图表示生成回答。该方法在性能上显著优于图文方法,并且对于较大的图结构保持一致。
May, 2024
本研究解决了大型语言模型在处理图形任务时无法捕捉复杂结构信息的挑战。提出了一种新颖的节点标记器NT-LLM,通过选择关键节点并基于相对距离进行编码,能够有效捕捉图形拓扑信息,显著提高模型的推理能力和性能。这一方法具有更好的实用性和应用潜力。
Oct, 2024