非 IID 图上的联邦图分类
Cluster-driven Graph Federated Learning (FedCG) proposes a novel method for learning a central model in privacy-constrained scenarios, overcoming statistical heterogeneity by identifying domains via FL-compliant clustering, instantiating domain-specific modules, connecting them through Graph Convolutional Networks (GCNs), and learning to cluster unsupervised via teacher-student classifier-training iterations to achieve state-of-the-art results on multiple Federated Learning benchmarks.
Apr, 2021
提供了第一个 FL 框架 (GraphFL),用于解决非 IID 问题,处理新标签域的任务以及利用未标记的图形数据,使用代表性的图神经网络作为 GraphSSC 方法,并在多个图形数据集上评估,结果表明 GraphFL 显着优于比较的 FL 基线,GraphFL 通过自我训练可以获得更好的性能。
Dec, 2020
提出了 FedStar 框架,该框架是一种用于跨图联邦学习任务的 FGL 框架,其提取和共享公共底层结构信息,从而捕获更多基于结构的领域不变信息并避免特征不匹配问题。
Nov, 2022
本研究介绍 FedGraphNN,一个用于解决中心化实际世界图形数据训练 GNN 所面临的隐私问题的开放式分布式学习平台,涵盖各种数据集,流行的 GNN 模型以及 FL 算法,维护源代码的统一公式和安全高效的系统支持。
Apr, 2021
在分布式数据隐私敏感的场景下,集中式训练图神经网络模型面临一些挑战,因此我们提出了一种名为联邦图学习(FGL)的方法,借助于联邦学习技术在保持数据去中心化的同时共同训练模型,并对 FGL 进行了分类、讨论、挑战和应用倡议。
May, 2021
图形联邦学习在多种场景中都有广泛的应用,需要更多的数据隐私保护。这篇研究论文提出了一种基于去中心化框架以及节点间数据相似性的图形联邦学习方法,通过线性加权聚合节点的梯度信息,实验证明该方法的有效性优于其他方法。
Jul, 2023
本文提出了一种修改的联邦学习 (FL+HC) 方法,通过引入分层聚类步骤将客户端分为相似的集群,然后对这些集群进行独立并行的训练,实现在非独立同分布的数据环境下的模型训练,通过该方法可以使模型的性能、收敛速度、精度都有所提升。
Apr, 2020
联邦图学习通过分布式图训练共同学习一个全局图神经网络,在非独立同分布的分布式图中面临着重要的挑战。本文首次揭示了局部客户端扭曲现象的原因,包括节点级语义和图级结构。根据节点级语义,对比不同类别的节点有助于提供良好的区分能力。根据图级结构,邻节点具有相似性。我们通过将邻接关系转化为相似度分布,并利用全局模型将关系知识传递给局部模型,以保留局部模型的结构信息和可区分性。实证结果表明,该方法在三个图数据集上优于其他方法。
Jun, 2024
文章提出一种基于联邦学习的图学习架构 FedGL,通过全局的自监督信息聚合每个客户机的模型,利用图数据的互补性,保护数据隐私并在分布式场景下提高模型质量。实验结果表明,FedGL 较传统方法在四个广泛使用的图数据集上表现优异。
May, 2021