本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
这篇综述论文分析了分布式图神经网络训练的三个挑战以及通过四类优化技术解决这些挑战的方法:GNN 数据分区、GNN 批量生成、GNN 执行模式和 GNN 通信协议。最后,本文总结了现有的多 GPU、GPU 集群和 CPU 集群的分布式 GNN 系统,并就可伸缩 GNNs 的未来方向进行了讨论。
Nov, 2022
本文研究了节点数据隐私的问题,并提出了一种基于局部差分隐私的 GNN 学习算法和一个名为 KProp 的简单图卷积层作为降噪机制,实验表明该方法在低隐私损失的同时可以保持令人满意的准确性。
Jun, 2020
为了填补这一重要方向的空白,我们首次对不同形式定义下增强表达能力的模型进行了综述,具体而言,我们根据三个类别(即图特性增强、图拓扑增强和图神经网络架构增强)对这些模型进行了回顾。
Aug, 2023
该论文概述了图神经网络的 “表达能力” 概念,并就图神经网络的设计选择提供了有价值的见解。
Jan, 2024
本文研究了图神经网络的可扩展性和推广性,并提出了灵活的 GNNs 框架,通过多种节点更新函数和内部循环优化,使网络能够灵活适应新图并在多项推理任务中提高泛化能力。
Sep, 2022
本综述通过介绍图神经网络及其理论局限性,全面概述了图神经网络模型的表现能力及其改进版。
Mar, 2020
本文介绍了一种名为 GPT-GNN 的框架,用于解决 Graph Neural Networks 训练问题,通过预训练一个能够自监督地学习到结构和语义属性的 GNN 模型,然后将其传输到 Downstream Tasks 中,从而显著提高了性能。
本文总结和分类大规模图神经网络解决方案的重要方法和技术,并建立了图神经网络系统、图处理系统和深度学习系统之间的联系。
May, 2023
本文提出了一种基于集体学习和自监督学习的蒙特卡洛采样框架,用于将当前的 GNN 模型进行增强以实现节点分类,实验结果表明,该方法在五个真实世界的网络数据集上都取得显著的性能提升。