节点分类的全局 - 局部图神经网络
本篇论文提出了一种新的图形神经网络 GL-GNN,通过学习关系的图形和选择重要数据特征以解决未知图形、节点具有嘈杂特征和图形含有噪声连接等三个问题,并在多个数据集上与基线方法进行对比, 能够选择重要特征和图形边缘。
Oct, 2022
该论文提出了一种名为 G-GNNs 的新型模型,通过无监督预训练获取节点的全局结构和属性特征,然后利用这些特征和原始网络属性,提出了一种 GNN 的并行框架以从这些特征中学习不同的方面。该模型的学习方法可应用于平面图和属性图,并通过 extensive experiments 在三个标准评估图上表现优异,特别地,在属性图学习方面,G-GNNs 在 Cora (84.31%) 和 Pubmed (80.95%) 上建立了新的基准记录。
Oct, 2019
本文提出了基于标签一致性的图神经网络(LC-GNN),扩大了 GNN 中的节点感受野,利用未连接但标签相同的节点对。在基准数据集上的实验证明,LC-GNN 在图形半监督节点分类方面优于传统的 GNN,在只有少数标记节点的稀疏场景中也表现出优越性。
Jul, 2020
我们提出了一种局部结构感知的图对比学习方法 (LS-GCL),用于从多个视角建模节点的结构信息,并且通过多层对比损失函数来优化模型,实验结果表明我们的方法在节点分类和链接预测任务上均优于最先进的图表示学习方法。
Aug, 2023
该论文从局部到全局的角度,介绍了图神经网络的两种类型 —— 局部信息传递神经网络和全局图变换器,并对不变图网络的收敛特性进行了研究;连接局部信息传递神经网络和全局图变换器;使用局部信息传递神经网络实现了图缩减等全局建模中常用的子程序。
Jun, 2023
本研究采用图神经网络(GNN)解决经典的非线性回归问题 —— 网络定位,并发现 GNN 在精度、鲁棒性和计算时间方面潜在成为大规模网络定位的最佳解决方案,适当的通信范围阈值对其高性能至关重要。此外,本研究提出的基于 GNN 的方法通过数据聚合、非线性可见性去噪和低通滤波等技术使其在邻居选择阈值上的优化成为可能。仿真结果表明,该方法远优于先前的最新基准。
Oct, 2020
提出了一种新的基于图神经网络的模型,通过全局参数共享建立每个输入文本的图形而不是整个语料库的单个图形,这种方法支持在线测试,同时提取更多的本地特征和显著降低边缘数量以及内存消耗,在多个文本分类数据集上性能优于现有模型。
Oct, 2019
本文提出了一种在图上进行终身学习的增量训练方法,通过 $k$- 邻居时间差的方法解决历史数据的差异,并在五种典型的 GNN 体系结构上进行训练,结果表明相对于对完整图数据的训练,只需要保留至多 50% 的 GNN 感受野,就能保证至少 95% 的准确度,并确认了随着显式知识变少,隐式知识变得更为重要。
Jun, 2020
本文研究了 Graph Convolutional Neural Networks 在半监督节点分类中的表现。实验发现,节点的相似度和 GCN 的性能有正相关关系,并且 GCN 在同一类中节点邻居的一致性和唯一性对性能影响显著。
Jul, 2022