Sep, 2023

神经图模型的联邦学习

TL;DR我们开发了一个 FL 框架,其中维护一个全局的 NGM 模型,通过学习本地 NGM 模型的平均信息,同时保持训练数据在客户端环境中。我们的设计 FedNGMs 避免了神经元匹配框架的问题,如 Federated Matched Averaging,在这些框架中存在模型参数膨胀的问题。我们的全局模型大小在整个过程中保持恒定。对于客户端具有不包含在组合全局分布中的本地变量的情况,我们提出了一种 “拼接” 算法,它通过使用客户端数据合并附加变量来个性化全局 NGM 模型。FedNGM 对数据异质性、大量参与者和有限的通信带宽具有鲁棒性。