ICMLSep, 2023
FedFwd:无需反向传播的联邦学习
FedFwd: Federated Learning without Backpropagation
Seonghwan Park, Dahun Shin, Jinseok Chung, Namhoon Lee
TL;DR使用一种名为 FedFwd 的新方法,该方法在本地训练过程中通过层级局部更新参数来减少计算量,无需在训练期间存储所有中间激活值。在评估 MNIST 等标准数据集上,我们进行了各种实验,表明它与其他依赖于反向传播算法的联邦学习方法具有竞争力。