Jun, 2023

多域联邦学习是否不可或缺归一化?

TL;DRFederated learning(FL)通过在分散的客户端上进行协同原位训练,增强数据隐私性。然而,FL 面临由于非独立和同分布的(non-i.i.d)数据而引起的挑战,导致潜在的性能下降和收敛阻碍。本研究解决了一个被称为多域 FL 的关键问题,该问题经常被忽略,即客户数据来自具有不同特征分布的不同领域。为了解决 FL 中的多域问题,我们提出了一种称为无标准化联邦学习(FedWon)的新方法。FedWon 通过在 FL 中消除所有标准化,并用缩放的权重标准化重新参数化卷积层,以解决批量标准化面临的挑战。与 FedAvg 和当前最先进的方法(FedBN)相比,我们的结果表明 FedWon 在所有实验设置中均优于它们,某些域的改进超过 10%。此外,FedWon 即使在批量大小为 1 的情况下也能够以强劲的性能处理扭曲的标记分布,并且对于跨 silos 和跨设备的 FL 非常灵活。