Sep, 2023

时序异质性中的联邦学习

TL;DR本研究探讨了在客户端之间存在的时间异质性的联邦学习,并观察到使用固定长度序列进行训练的FedAvg获得的全局模型比使用不同长度序列的模型收敛速度更快。我们提出了一种基于经验观察的方法来减轻时间异质性,以实现高效的联邦学习。