Aug, 2023

NeFL: 异构客户端的嵌套联邦学习

TL;DR嵌套联邦学习(NeFL)是一种通用的框架,通过深层次和宽度缩放有效地将模型划分为子模型,解决分布式学习中迟滞者对训练时间和性能的影响。此框架将模型解释为求解普通微分方程(ODEs)的方式,并通过解耦少量参数来解决训练多个具有不同架构的子模型时出现的不一致性。通过一系列实验,我们证明了NeFL可以显著提高性能,并且与联邦学习领域的最新研究相一致。