Mar, 2024

联邦学习中借鉴低效客户的学习

TL;DR现有联邦学习算法在从客户端设备中学习该设备返回具有显著时间延迟的模型更新方面表现如何?能否有效学习来自于计划后几分钟、几小时或几天才回报的客户端?本研究通过基于真实应用的蒙特卡洛模拟来回答这些问题。我们研究了 FedAvg 和 FedAdam 等同步优化算法,以及异步联邦缓冲算法 FedBuff,并观察到所有这些现有方法在学习严重延迟的客户端方面都存在困难。为了改善这种状况,我们进行了修改实验,包括蒸馏正则化和模型权重的指数移动平均。最后,我们提出了基于蒸馏和平均的两种新算法 FARe-DUST 和 FeAST-on-MSG。通过对 EMNIST、CIFAR-100 和 StackOverflow 基准联邦学习任务的实验,证明我们的新算法在延迟严重的客户端方面优于现有算法,并在训练时间和总体准确性之间提供更好的权衡。