Jun, 2021

异构联邦学习中的局部全局知识蒸馏与非独立同分布数据

TL;DR该论文提出一种名为FedGKD的新方法,通过融合历史全局模型的知识进行本地训练,解决异构联邦学习中的客户端漂移问题,并在各种计算机视觉和自然语言处理数据集上进行广泛的实验和评估,达到了优于其他五种方法的结果。