FedGT:具有可扩展图变换器的联邦节点分类
我们提出一种个性化优化策略,名为 Federated Graph Topology-aware Aggregation(FedGTA),通过拓扑感知的局部平滑置信度和混合邻居特征来优化分布式图学习方法,实现优越的性能和高度可扩展性。
Jan, 2024
本研究使用可扩展的图转换器(GT)框架来进行单个大规模图的表示学习,并提出了快速的采样技术和局部注意机制,以解决全局注意机制在大规模图上的计算复杂性问题。在三个大规模节点分类基准测试中,我们验证了 LargeGT 框架,并取得了 3 倍的加速和 16.8%的性能提升。
Dec, 2023
提出了 FedGKD,一种新的联邦图神经网络框架,利用客户端图数据集提取更好描述任务相关性的任务特征,并引入一种对全局协作结构感知的新型服务器端聚合机制,通过在六个不同规模的真实世界数据集上进行广泛实验,证明该框架的优越性。
Sep, 2023
通过全球节点和超边之间的全球关联以及捕捉节点和超边之间的局部连接性,提出了一种新颖的超图学习框架,称为 HyperGraph Transformer(HyperGT),该框架利用基于 Transformer 的神经网络结构来有效地处理超图结构化数据,实现了全面的超图表示学习,并在超图节点分类任务中取得了出色的性能,超过了现有方法,建立了新的基准水平。
Dec, 2023
拓扑感知无数据知识蒸馏技术 (FedTAD) 可以解决子图异质性所带来的性能下降问题,通过优化局部 GNN 模型向全局模型的可靠知识转移,提高分布式图神经网络训练效果。
Apr, 2024
本文介绍了一种名为 FedGraph 的联邦学习框架,它使用基于深度强化学习的智能图采样算法以及一种新的跨客户卷积操作来解决计算客户之间图学习的挑战,从而实现数据隐私保护和更好的性能表现。在四个流行数据集上的实验表明,FedGraph 显著优于现有的工作,并能够更快地收敛到更高的准确性水平。
Nov, 2021
文章提出一种基于联邦学习的图学习架构 FedGL,通过全局的自监督信息聚合每个客户机的模型,利用图数据的互补性,保护数据隐私并在分布式场景下提高模型质量。实验结果表明,FedGL 较传统方法在四个广泛使用的图数据集上表现优异。
May, 2021
该文介绍了一种基于图聚类的联邦学习框架 GCFL,它通过动态发现基于 GNN 梯度的本地系统集群,从而降低本地系统拥有的图的结构和特征异质性。该框架通过动态时间规整设计梯度序列聚类机制(GCFL +),其有效地应用于各种现实世界的图形分类任务中。
Jun, 2021
本文提出了 FedHGN,这是一种新颖而通用的 FGL 框架,用于异构图神经网络,采用模式权重分离来启用模式不可知知识共享,并采用系数对齐来稳定训练过程和提高 HGNN 性能,确保更好的隐私保护,FedHGN 在三个异构图数据集上的表现优于本地训练和传统的 FL 方法。
May, 2023
本文对子图联邦学习问题提出两种主要技术,即基于 FedAvg 的 FedSage 模型和带有缺失邻居生成器的 FedSage + 模型,以协作地训练功能强大且具有泛化能力的图形挖掘模型而无需直接共享图形数据。实验结果表明我们所提出的方法在四个真实世界的图形数据集中,表现出了良好的效果和效率,并且在理论上证明了其对于全局图的泛化能力。
Jun, 2021