无需对文本属性图进行训练的图神经网络
本文介绍了一种名为 GPT-GNN 的框架,用于解决 Graph Neural Networks 训练问题,通过预训练一个能够自监督地学习到结构和语义属性的 GNN 模型,然后将其传输到 Downstream Tasks 中,从而显著提高了性能。
Jun, 2020
本文提出了一种有效的框架,称为语言模型图神经网络 (LM-GNN),通过分阶段的 BERT 模型微调来结合异构图结构与文本,以便在多项监督学习任务中实现节点和边分类以及链接预测,并在不同的数据集上评估了这个框架且在一个亚马逊搜索 - 购买 - 产品的应用中提供了有竞争力的结果。
Jun, 2022
本文介绍了一种基于图神经网络的新方法 TextING,可用于词嵌入和归纳文本分类,并在四个基准数据集上进行了实验,取得了超过现有文本分类方法的优异成果。
Apr, 2020
该论文提出了一种名为 G-GNNs 的新型模型,通过无监督预训练获取节点的全局结构和属性特征,然后利用这些特征和原始网络属性,提出了一种 GNN 的并行框架以从这些特征中学习不同的方面。该模型的学习方法可应用于平面图和属性图,并通过 extensive experiments 在三个标准评估图上表现优异,特别地,在属性图学习方面,G-GNNs 在 Cora (84.31%) 和 Pubmed (80.95%) 上建立了新的基准记录。
Oct, 2019
不需要训练或测试过程中使用图神经网络的全新节点分类方法,通过平滑性约束、伪标记迭代和邻域标签直方图的三个关键组成部分,可以在标准流行基准测试中达到业界最先进的准确性,如引文和共购买网络。
Feb, 2024
提出了一种新的基于图神经网络的模型,通过全局参数共享建立每个输入文本的图形而不是整个语料库的单个图形,这种方法支持在线测试,同时提取更多的本地特征和显著降低边缘数量以及内存消耗,在多个文本分类数据集上性能优于现有模型。
Oct, 2019
Text-And-Graph Multi-View Alignment (TAGA) is a self-supervised learning framework that integrates Text-Attributed Graphs (TAGs), enabling efficient training and strong performance in zero-shot and few-shot scenarios across multiple datasets.
May, 2024
本文通过变分 EM 算法提出了一种名为 GLEM 的高效文本 - 图像学习方法,该方法将大规模语言模型和图神经网络结构有效地融合,实现在大型文本 - 图像图模型上的学习。
Oct, 2022