本文提出了基于联邦学习的 VFGNN 框架,用于解决图数据中的隐私节点分类任务,在保留数据隐私的同时获得了良好的效果。
May, 2020
本文提出了一个自动化的分离式联邦图神经网络学习范式(ASFGNN),该范式包括GNN的训练和超参数调整两个主要组成部分,通过分离-联邦GNN学习模型和贝叶斯优化技术解决了数据的Non-IID问题和超参数调整的耗时问题,实验结果表明ASFGNN显著优于普通联邦GNN。
Nov, 2020
本研究介绍FedGraphNN,一个用于解决中心化实际世界图形数据训练GNN所面临的隐私问题的开放式分布式学习平台,涵盖各种数据集,流行的GNN模型以及FL算法,维护源代码的统一公式和安全高效的系统支持。
Apr, 2021
本研究提出SpreadGNN,是一种新型的多任务联邦学习框架,能够在无中心服务器的情况下操作,使用一个具有收敛保证的新型优化算法Decentralized Periodic Averaging SGD (DPA-SGD)来解决分散式多任务学习问题,并在各种非独立同分布的分布式图层次molecular property prediction数据集上验证了其有效性。
Jun, 2021
本文提出FedVGCN算法,是一个隐私保护的节点分类任务的联邦学习范式,能够推广到现有的GCN模型,将计算图数据分成两部分,在同态加密下,双方交换中间结果进行训练,实验结果表明FedVGCN在GraphSage的情况下是有效的。
介绍了一种使用联合学习的 FedGCN 算法用于训练分布式的图模型,它可以在大型图上进行半监督节点分类,具有快速收敛和较小的通信成本,相比先前的方法,FedGCN 只需要在一个预训练步骤中将客户端与中央服务器进行通信,显著降低通信成本。
Jan, 2022
本文提出了FedHGN,这是一种新颖而通用的FGL框架,用于异构图神经网络,采用模式权重分离来启用模式不可知知识共享,并采用系数对齐来稳定训练过程和提高HGNN性能,确保更好的隐私保护,FedHGN在三个异构图数据集上的表现优于本地训练和传统的FL方法。
May, 2023
AdaFGL是一个分布式的基于图神经网络的框架,通过引入structure Non-iid split的概念,提供了一种解决Federated Graph Learning中独特异构性挑战的新范式,实验证实其在12个图网络基准数据集上具有优异的性能。
Jan, 2024
提出了一种可扩展的FedGraphTransformer(FedGT)方法,通过混合注意力机制解决了分布式图神经网络在局部子图更新中缺失链接的问题,以及子图异构性和数据隐私保护的问题。实验证明了FedGT的优越性。
该研究解决了图神经网络训练中的隐私问题,即需将用户数据集中到服务器。提出了一种新颖的节点级联邦学习框架,解耦了第一层GNN的消息传递和特征向量转换过程,使其可在用户设备和云服务器上分别执行。实验结果表明,该方法在多个数据集上相较基线具有更好的性能。
Sep, 2024