将解释作为特征:基于LLM的文本属性图特征
本文旨在探索使用大型语言模型(LLMs)进行图机器学习的潜力,特别是节点分类任务,并调查两种潜在的流程:LLMs作为增强器和LLMs作为预测器。通过全面而系统的研究,我们获得了原创性观察并发现新的见解,为利用LLMs进行图学习提供了新的可能性和有希望的方向。
Jul, 2023
该文介绍了一种利用大型语言模型和图神经网络相结合的无标签节点分类方法LLM-GNN,在小部分节点上利用语言模型进行注释,然后使用图神经网络对其余大部分节点进行预测,通过开发注释质量启发式和利用语言模型的置信度得分来选择节点,从而提高图神经网络的性能,实验证明了LLM-GNN的有效性。
Oct, 2023
通过采用轻量级范式ENG以Large Language Models为基础,增强文本属性的图数据,包括通过节点生成使用LLMs提取语义信息和生成样本,以及通过边缘预测器将新生成的样本与原始图结合,从而在少样本情况下促进节点分类任务。
Oct, 2023
利用大型语言模型在图学习任务中的潜力,本研究探索了如何利用信息检索和文本生成能力来提高文本属性图的拓扑结构,进而增强节点分类的性能。通过节点属性的语义相似度,采用大型语言模型来删除不可靠的边并添加可靠的边,以及利用大型语言模型生成的伪标签改善图的拓扑结构。实验证明使用大型语言模型进行图拓扑改善在公共基准测试中提升了0.15%至2.47%的性能。
Nov, 2023
本研究提出了使用大型语言模型和图模型相结合的方法来学习文本属性图 (TAG),通过将大型语言模型的能力提取到本地图模型上,以解决大型语言模型的可扩展性、成本和隐私问题,并通过丰富的文本理由教授解释器,然后让学生模型模仿解释器的推理来弥补大型语言模型和图模型之间的固有差距。通过广泛实验证明了该方法的有效性。
Feb, 2024
本文研究了如何利用大型语言模型(LLMs)对文本属性图(TAGs)进行建模,并提出了一种名为GraphAdapter的框架,它使用图神经网络(GNN)作为高效的适配器。经过多项实验证明,GraphAdapter在节点分类任务中相比以前的方法提高了约5%,同时还适用于其他语言模型,包括RoBERTa和GPT-2。
Feb, 2024
通过综述最新的最先进的用于图学习的大型语言模型,我们引入了一种新的分类方法,详细阐述了四种独特的设计,并探讨了每种框架的优势和局限性,同时强调了未来研究的潜在方向。
May, 2024
本研究通过语言监督来改善视图生成,介绍了GAugLLM框架,利用先进的大型语言模型(如Mistral)增强自监督图学习,通过混合提示专家技术生成增强的节点特征,以及协作边修饰器来增强边的生成。实验结果表明,该框架可以作为插件工具增强领先的对比方法的性能,同时也能增强标准生成方法和流行的图神经网络的性能。
Jun, 2024
使用Simplified Text-Attributed Graph Embeddings (STAGE)方法来增强编码文本属性图的图神经网络模型中的节点特征。STAGE利用大型语言模型生成文本属性的嵌入,实现了在各种节点分类基准测试中具有竞争力的结果,同时相对于当前最先进的技术实现上也保持了简单性。我们展示了利用预训练的大型语言模型作为嵌入生成器为集成图神经网络训练提供了稳定的特征,从而使得我们的流程比当前需要多个昂贵的训练和提示阶段的最先进方法更简化。我们还实现了扩展模式图神经网络,以使这个流程适用于超过学术基准的图结构。
Jul, 2024