本文提出了一种新的缓存异步聚合方法 FedBuff,它结合了同步和异步 federated learning 的最佳属性,可在不影响系统隐私的情况下提高效率,大大缓解了跨设备联合学习中的可扩展性和隐私问题。
Jun, 2021
QAFeL 是一种新的算法,提出了一种量化方案,通过建立服务器和客户端之间的共享 “隐藏” 状态,避免直接量化导致的误差传播,从而高精度地减少客户端和服务器之间传输的数据量。该算法在理论上具有收敛保证,并通过标准基准上的实验证明了我们的分析。
Aug, 2023
FedStaleWeight 算法通过使用平均陈旧度来计算公平重新权重从而解决了异步客户端更新聚合中的公平性问题,并且在流畅的非凸环境中提供了理论收敛保证,与常用的异步 FedBuff 梯度平均方法相比,实验证明它在加强公平性、加速收敛到更高的全局模型准确性方面表现更优。
Jun, 2024
现有联邦学习算法在从客户端设备中学习该设备返回具有显著时间延迟的模型更新方面表现如何?能否有效学习来自于计划后几分钟、几小时或几天才回报的客户端?本研究通过基于真实应用的蒙特卡洛模拟来回答这些问题。我们研究了 FedAvg 和 FedAdam 等同步优化算法,以及异步联邦缓冲算法 FedBuff,并观察到所有这些现有方法在学习严重延迟的客户端方面都存在困难。为了改善这种状况,我们进行了修改实验,包括蒸馏正则化和模型权重的指数移动平均。最后,我们提出了基于蒸馏和平均的两种新算法 FARe-DUST 和 FeAST-on-MSG。通过对 EMNIST、CIFAR-100 和 StackOverflow 基准联邦学习任务的实验,证明我们的新算法在延迟严重的客户端方面优于现有算法,并在训练时间和总体准确性之间提供更好的权衡。
Mar, 2024
FedFa 是一种完全异步的训练范式,通过在服务器上使用少量缓冲结果进行参数更新,可以确保联邦学习的模型收敛并完全消除等待时间,实验证明该方法在 IID 和 Non-IID 场景下相较于同步和半异步策略提高了 6 倍和 4 倍的训练性能,并且保持了较高的准确性。
Apr, 2024
提出了一个缓冲异步联邦同时训练算法 FedAST,通过克服模型缓慢和自适应分配异构任务的客户资源来解决瓶颈问题,实验证明与现有同时联邦学习方法相比,能够达到多任务训练时间的最多 46.0% 的减少。
传统的联邦学习方法由于数据上传同步方式导致速度慢且不可靠,本论文提出了一种考虑不同更新贡献、适应数据延迟与异质性的异步联邦学习方法,有效提升了收敛速度。
Feb, 2024
提出一种新的联邦学习框架,通过发送全局梯度估计的加速模型来引导本地梯度更新,从而改进了服务器端聚合步骤的稳定性,实现了自然聚合和传递全局更新信息,同时不需要额外的通信成本和客户机中存储过去的模型。在现实数据下进行全面的实证研究,证明了所提方法在精度和通信效率方面相对于现有方法的显着性能,尤其是在低客户端参与率下。
Jan, 2022
我们提出了一种高效的异步联邦学习(AFL)框架,称为延迟联邦平均(DeFedAvg),通过在自己的速度上使用不同陈旧的全局模型,DeFedAvg 可以达到与 FedAvg 相当的渐近收敛速率,同时也是第一个具有可证明的良好线性加速特性的 AFL 算法,从而表明其高可扩展性。
本文提出了 FedSpeed 方法,通过应用 prox-correction term 和混合随机梯度下降和额外梯度上升步骤的扰动方法,解决了分布式学习框架中由于本地不一致的最优和过度拟合引起的非消失偏差问题。实验表明 FedSpeed 在真实数据集上的效率显著快于几种基线算法,并实现了最先进的性能。
Feb, 2023