FedGKD: 在联邦图神经网络中释放协作的力量
本研究提出 SpreadGNN,是一种新型的多任务联邦学习框架,能够在无中心服务器的情况下操作,使用一个具有收敛保证的新型优化算法 Decentralized Periodic Averaging SGD (DPA-SGD) 来解决分散式多任务学习问题,并在各种非独立同分布的分布式图层次 molecular property prediction 数据集上验证了其有效性。
Jun, 2021
本文提出了 FedHGN,这是一种新颖而通用的 FGL 框架,用于异构图神经网络,采用模式权重分离来启用模式不可知知识共享,并采用系数对齐来稳定训练过程和提高 HGNN 性能,确保更好的隐私保护,FedHGN 在三个异构图数据集上的表现优于本地训练和传统的 FL 方法。
May, 2023
本研究介绍 FedGraphNN,一个用于解决中心化实际世界图形数据训练 GNN 所面临的隐私问题的开放式分布式学习平台,涵盖各种数据集,流行的 GNN 模型以及 FL 算法,维护源代码的统一公式和安全高效的系统支持。
Apr, 2021
提出了一种称为 FedGraph 的泛化算法,该算法使用图卷积神经网络从客户端的子集中学习特征,捕捉特征共享信息,并采用简单但有效的聚类算法聚合每个客户端的深度神经网络生成的特征,同时保护数据隐私。
Apr, 2024
提出了一种可扩展的 FedGraphTransformer(FedGT)方法,通过混合注意力机制解决了分布式图神经网络在局部子图更新中缺失链接的问题,以及子图异构性和数据隐私保护的问题。实验证明了 FedGT 的优越性。
Jan, 2024
本文提出 FedVGCN 算法,是一个隐私保护的节点分类任务的联邦学习范式,能够推广到现有的 GCN 模型,将计算图数据分成两部分,在同态加密下,双方交换中间结果进行训练,实验结果表明 FedVGCN 在 GraphSage 的情况下是有效的。
Jun, 2021
介绍了一种使用联合学习的 FedGCN 算法用于训练分布式的图模型,它可以在大型图上进行半监督节点分类,具有快速收敛和较小的通信成本,相比先前的方法,FedGCN 只需要在一个预训练步骤中将客户端与中央服务器进行通信,显著降低通信成本。
Jan, 2022
本文提出了一种 GraphGANFed 框架,该框架将图形卷积神经网络(GCN)、生成对抗网络(GAN)和联邦学习(FL)作为整体系统来生成新的分子,而不共享本地数据集,实现了数据隐私的保护,并且在三个基准数据集上进行了广泛的模拟,证明了 GraphGANFed 的可行性和有效性。
Apr, 2023
该文介绍了一种基于图聚类的联邦学习框架 GCFL,它通过动态发现基于 GNN 梯度的本地系统集群,从而降低本地系统拥有的图的结构和特征异质性。该框架通过动态时间规整设计梯度序列聚类机制(GCFL +),其有效地应用于各种现实世界的图形分类任务中。
Jun, 2021
本文提出了一个自动化的分离式联邦图神经网络学习范式 (ASFGNN),该范式包括 GNN 的训练和超参数调整两个主要组成部分,通过分离 - 联邦 GNN 学习模型和贝叶斯优化技术解决了数据的 Non-IID 问题和超参数调整的耗时问题,实验结果表明 ASFGNN 显著优于普通联邦 GNN。
Nov, 2020