Apr, 2022

异构通信阈值下的去中心化事件触发联邦学习

TL;DR本文介绍了一种用于分布式模型聚合的新方法,旨在处理分散式 Federated Learning 中的去中心化问题。方法采用异步、事件触发的共识迭代实现模型的分布式聚合,并通过异构通讯事件阈值权衡本地模型参数的变化,达到每次迭代的聚合收益最大化。理论上分析表明,该方法在分布式学习和图形共识文献中的标准假设下实现了全局最优学习模型的渐近收敛,而不需要对底层拓扑连接性有任何限制。相关数值结果表明,该方法相对于FL基线获得了大幅的通信要求改进。