M3FGM: 基于节点掩码和多粒度消息传递的联邦图模型,用于空间 - 时间数据预测
提出了一种基于 Cross-Node Federated Graph Neural Network(CNFGNN)的联邦时空模型,旨在利用分布式数据的时空结构,对交通流量进行准确预测,并在交通流量预测任务中展示了其卓越的表现。
Jun, 2021
我们开发了一个 FL 框架,其中维护一个全局的 NGM 模型,通过学习本地 NGM 模型的平均信息,同时保持训练数据在客户端环境中。我们的设计 FedNGMs 避免了神经元匹配框架的问题,如 Federated Matched Averaging,在这些框架中存在模型参数膨胀的问题。我们的全局模型大小在整个过程中保持恒定。对于客户端具有不包含在组合全局分布中的本地变量的情况,我们提出了一种 “拼接” 算法,它通过使用客户端数据合并附加变量来个性化全局 NGM 模型。FedNGM 对数据异质性、大量参与者和有限的通信带宽具有鲁棒性。
Sep, 2023
GML 是一种去中心化的协作学习框架,通过使用八卦协议实现直接的点对点通信并利用相互学习从同行处获取有用信息,改善了基于全局数据特性训练的模型性能,尤其在肿瘤分割任务方面,相比于基线方法(汇集训练、FedAvg 和单独训练),在特定测试样本中的 Dice 相似系数(DSC)分别提高了 3.2%、4.6% 和 10.4%,在 78 个样本的两个样本外站点上应用时,GML 的泛化性能与汇集训练和 FedAvg 相当,同时通信开销减少了六倍,仅需总通信开销的 16.67%。
Jan, 2024
通过 Gossip Mutual Learning (GML) 这种基于 Gossip 协议的去中心化框架,我们在使用 BraTS 2021 数据集的四个临床站点中,对 146 个病例进行肿瘤分割任务的实验中发现,GML 在与本地模型相比具备显著优势,在只有 25% 通信开销的情况下达到了与 FedAvg 类似的性能。
Jan, 2024
研究围绕联邦学习,提出使用强大的服务器模型帮助边缘设备解决模型容量问题,通过选择性地从多个客户端和自己进行学习,开发了深度知识并返回给客户端,取得了在图像分类任务中的优秀性能。
Oct, 2021
本研究提出了一种应用于不同图联邦场景的联邦聚合方法 FLGNN,并研究了图神经网络模型每一层参数共享的聚合效果。通过在真实数据集上进行实验证实了 FLGNN 的有效性,并设计了成员推断攻击实验和差分隐私防御实验以保证其隐私安全性。结果显示 FLGNN 具有良好的鲁棒性,并通过添加差分隐私防御方法进一步降低了隐私盗取的成功率。
Mar, 2024
本文提出了一种名为多图融合网络(MGFN)的模型,通过人类移动数据的地理位置相似性融合模块,将人类移动数据的多种模式嵌入到该模型中,这有助于进行交叉领域的预测任务,如犯罪预测,并在实际城市数据集上进行了广泛的实验,结果表明,MGFN 模型优于现有技术方法,最大提高了 12.35%。
Jan, 2022
提出了一种可扩展的 FedGraphTransformer(FedGT)方法,通过混合注意力机制解决了分布式图神经网络在局部子图更新中缺失链接的问题,以及子图异构性和数据隐私保护的问题。实验证明了 FedGT 的优越性。
Jan, 2024