Mar, 2020

联邦剩余学习

TL;DR本研究探讨了一种新的联邦学习形式,其中客户端训练个性化本地模型,并与服务器端共享模型联合进行预测,通过这种新的联邦学习框架,可以最小化中央共享模型的复杂性,同时获得联合训练提供的所有性能优势。这个框架对数据异质性具有鲁棒性,解决了传统联邦学习方法在客户端数据非独立同分布时面临的收敛缓慢问题。我们在实证测试中发现,与基准线相比,取得了巨大的性能提升。