Jun, 2023

通过稳定性理解联邦学习的泛化:异质性很重要

TL;DR本文针对联邦学习中算法稳定性的概念,研究了 FedAvg、SCAFFOLD 和 FedProx 在凸性和非凸性损失函数下的通用性能,并探讨了客户端数据的异质性和算法收敛行为对模型通用性能的影响。