通过引入 GraphPatcher 框架,本文提出了一种具有测试时间增强功能的方法,旨在增强图神经网络对低度节点的泛化性能,并保留其在高度节点上的原有优势性能。
Oct, 2023
我们研究了图神经网络在链接预测中的性能变化,并提出了基于节点的拓扑浓度的度量方法,该方法与链接预测之间具有更高的相关性。我们还发现了节点的拓扑分布转移问题,并提出了一种可扩展的近似拓扑浓度度量方法。最后,我们探讨了通过重新加权消息传递中的边来提高链接预测性能的潜力。
本文提出了一种名为 GraphLP 的新的基于网络重构理论的、区别于传统的判别式神经网络模型的生成式神经网络模型,利用深度学习提取图表结构信息并探索高阶连接模式以实现链路预测,实验证明 GraphLP 在不同数据集上都具有优异性能。
Dec, 2022
提出了一种名为 ELPH 的全图 GNN 和一种高度可扩展的模型 BUDDY,前者通过哈希传递子图草图以近似 SGNN 中的关键组件,后者使用特征预计算来规避 GPU 内存限制,而且两者在标准 LP 基准测试上性能均优于现有的 SGNN 模型
Sep, 2022
图神经网络(GNN)在节点分类任务中通常对高度节点优于低度节点,而这种度偏见由于众多假设的不严格验证以及可能的矛盾而加剧了社会边缘化。本论文通过分析不同图过滤器的信息传递 GNN 的度偏差的起源,证明了无论 GNN 如何被训练,高度测试节点都倾向于存在更低的误分类概率。此外,论文还说明了度偏见源于与节点度相关的各种因素(如邻居的同质性和多样性)。通过将发现与先前提出的度偏差起源的假设相连接,论文支持和统一了某些假设,同时对其他假设提出了疑问。论文在 8 个常见实际网络上验证了理论发现,并基于理论和实证研究结果,描述了减轻度偏见的路线图。
Apr, 2024
我们提出了一种被称为 Two-level GNN 的新型 GNN 框架,通过将子图级别信息与节点级别信息合并来克服现有 GNN 的局部置换不变性问题,并提出了一个基于动态规划算法的子图计数方法,实验证明 TL-GNN 优于现有 GNN,并实现了最先进的性能。
Jan, 2022
我们提出了一种名为邻域重叠感知图神经网络(Neo-GNNs)的方法,可以从邻接矩阵中学习有用的结构特征,预测链接,表现出比传统启发式方法更好的性能,可处理重叠的多跳邻域结构信息。
Jun, 2022
使用基于链路局部差分隐私的分散节点训练图神经网络,在保障用户隐私的前提下实现高准确性的图拓扑恢复。
Sep, 2023
本文提出一种自我可解释的 GNN 框架,可以同时给出精确的预测和解释,通过找到一个节点的各种 $k$ 个重要邻居,为该节点到其他节点的链接学习对特定的表示,从而得出解释。
May, 2023
本文研究了节点数据隐私的问题,并提出了一种基于局部差分隐私的 GNN 学习算法和一个名为 KProp 的简单图卷积层作为降噪机制,实验表明该方法在低隐私损失的同时可以保持令人满意的准确性。
Jun, 2020