Jul, 2023

原型正则化提升联邦学习收敛性

TL;DR在分布式机器学习技术中,联邦学习(FL)要求客户端在边缘服务器上协同训练共享模型,而不泄露其本地数据。本文引入了一种基于原型的正则化策略来解决数据分布的异质性,并通过实验结果表明,在MNIST和Fashion-MNIST上与最流行的基准FedAvg相比,我们的方法分别取得了3.3%和8.9%的平均测试准确率提升,而且在异质设置下具有快速收敛速度。