ICMLSep, 2023

FedFwd:无需反向传播的联邦学习

TL;DR使用一种名为 FedFwd 的新方法,该方法在本地训练过程中通过层级局部更新参数来减少计算量,无需在训练期间存储所有中间激活值。在评估 MNIST 等标准数据集上,我们进行了各种实验,表明它与其他依赖于反向传播算法的联邦学习方法具有竞争力。