Jun, 2024

FedAST: 分布式异步同时训练

TL;DR提出了一个缓冲异步联邦同时训练算法 FedAST,通过克服模型缓慢和自适应分配异构任务的客户资源来解决瓶颈问题,实验证明与现有同时联邦学习方法相比,能够达到多任务训练时间的最多46.0%的减少。