May, 2022
FedDKD:基于分散式知识蒸馏的联邦学习
FedDKD: Federated Learning with Decentralized Knowledge Distillation
TL;DR在神经网络中,联邦学习的性能通常受到数据分布的异构性的影响。本研究提出了一种新的联邦学习框架,配备了去中心化知识蒸馏(FedDKD)的过程,通过分布在本地的局部模型来训练全球模型,可以更有效地拟合神经网络映射平均值,来克服权重计算问题。实验证明,FedDKD在一些极度异构的数据集上表现出更高的效率和更好的训练结果,优于现有的联邦学习算法。