- 在文本属性图中桥接局部细节和全局背景
提出了 GraphBridge,一个多粒度整合框架,通过利用上下文文本信息来构建 TAGs 的局部和全局视角的桥梁,以增强对 TAGs 的细粒度理解,并引入了一个图感知的标记缩减模块来处理可扩展性和效率挑战。通过在各种模型和数据集上进行大量 - UniGLM:文本属性图的统一语言模型训练
通过自我监督的对比学习方法,我们介绍了一种新颖的统一图语言模型 (UniGLM) 框架,用于在多个领域和规模上进行多个文本 - 属性图 (Tag) 的联合微调,实现更好的泛化和转移学习能力。
- GAugLLM:使用大型语言模型改进文本属性图的图对比学习
本研究通过语言监督来改善视图生成,介绍了 GAugLLM 框架,利用先进的大型语言模型(如 Mistral)增强自监督图学习,通过混合提示专家技术生成增强的节点特征,以及协作边修饰器来增强边的生成。实验结果表明,该框架可以作为插件工具增强领 - TEG-DB: 文本 - 边缘图的综合数据集和基准
介绍了 Textual-Edge Graphs Datasets and Benchmark (TEG-DB) 项目,它是一个包含丰富文本描述在节点和边上的大规模文本边缘数据集,并通过广泛的基准实验证明当前技术,包括预训练语言模型、图神经网 - LinkGPT: 教授大型语言模型预测丢失链接
本研究提出了 LinkGPT,首个用于链接预测任务的端到端训练的大型语言模型 (LLM),通过有效整合结构信息和解决效率问题,在真实世界的图和零样本学习中取得了领先水平的性能。
- 通过大型语言模型实现文本属性图的潜力释放:自动关系分解
RoSE 是一个利用大型语言模型自动将文本属性分解成轮廓性语义关系的框架,在各种数据集上显著提高了节点分类性能,最高可达 16%。
- TAGA:基于图和文本相互转换的自监督学习
Text-And-Graph Multi-View Alignment (TAGA) is a self-supervised learning framework that integrates Text-Attributed Graph - 大规模语言模型(LLMs)上的图上测试时间训练
我们提出了一种新颖的测试时训练(LLMTTT)流程,借助大型语言模型作为注释者,在精心选择的节点集上进行图上的测试时适应,从而相对于现有的超出分布泛化方法,获得显著的性能提升。
- 无需对文本属性图进行训练的图神经网络
采用线性图神经网络(TrainlessGNN)模型构建代表每个类别节点属性子空间的权重矩阵,为 TAG 上的半监督节点分类提供了一种高效的方法,消除了迭代优化过程。广泛的实验证实了我们的无训练模型可以匹配甚至超越传统训练模型,展示了在特定配 - UniGraph:从自然语言中学习跨领域图基础模型
我们提出了 UniGraph 框架,通过使用文本属性图(TAGs)来训练图基础模型,实现对未见过的图和任务在不同领域中的泛化能力。我们的方法采用了级联的语言模型(LMs)和图神经网络(GNNs)构建的骨干网络以及基于掩码图建模(MGM)的自 - WWW图神经网络是否能够成为 LLMs 的好适配器?
本文研究了如何利用大型语言模型(LLMs)对文本属性图(TAGs)进行建模,并提出了一种名为 GraphAdapter 的框架,它使用图神经网络(GNN)作为高效的适配器。经过多项实验证明,GraphAdapter 在节点分类任务中相比以前 - 大规模语言模型蒸馏用于文本属性图学习
本研究提出了使用大型语言模型和图模型相结合的方法来学习文本属性图 (TAG),通过将大型语言模型的能力提取到本地图模型上,以解决大型语言模型的可扩展性、成本和隐私问题,并通过丰富的文本理由教授解释器,然后让学生模型模仿解释器的推理来弥补大型 - 基于相似度的图形相邻点选择
使用基于相似性的邻居选择 (SNS) 方法,通过对语言学习模型 (LLMs) 进行简单提示交互,SNS 在节点分类中展现了优越的性能,并且在图结构理解方面显示出 LLMs 的潜力。
- 大型语言模型对文本属性图的拓扑结构增强
利用大型语言模型在图学习任务中的潜力,本研究探索了如何利用信息检索和文本生成能力来提高文本属性图的拓扑结构,进而增强节点分类的性能。通过节点属性的语义相似度,采用大型语言模型来删除不可靠的边并添加可靠的边,以及利用大型语言模型生成的伪标签改 - 利用大型语言模型进行文本属性图的解耦合表示学习
通过 Disentangled Graph-Text Learner (DGTL) 模型,结合图结构信息和大型语言模型,提升了对文本属性图的推理能力和预测能力,并且通过提供自然语言解释来显著提高模型的解释性。
- EMNLPGRENADE: 自我监督表示学习的图中心语言模型
通过图中心化的自监督学习算法,GRENADE 模型在文本属性图上能够有效地捕捉信息性的文本语义和结构上下文信息,出现了优于现有方法的结果。
- 利用大型语言模型强化文本属性图学习
通过采用轻量级范式 ENG 以 Large Language Models 为基础,增强文本属性的图数据,包括通过节点生成使用 LLMs 提取语义信息和生成样本,以及通过边缘预测器将新生成的样本与原始图结合,从而在少样本情况下促进节点分类任 - 将解释作为特征:基于 LLM 的文本属性图特征
该论文的主要研究方向是在图神经网络中利用自然语言处理模型来提高文本理解能力,并将其作为图结构的特征以提高下游任务的性能。通过在多个数据集上的实验证明,采用该方法在一定程度上提升了图神经网络模型的表现。
- ICLR通过变分推断在大规模文本属性图上进行学习
本文通过变分 EM 算法提出了一种名为 GLEM 的高效文本 - 图像学习方法,该方法将大规模语言模型和图神经网络结构有效地融合,实现在大型文本 - 图像图模型上的学习。