Oct, 2022

个性化异步联合学习

TL;DR在异步更新的条件下,我们研究了个性化联邦学习问题。我们考虑了两种基于优化的个性化框架,并通过去除同步通信的假设和扩展函数类来提高其可扩展性。我们的主要技术贡献是确定性地证明,对于平稳和非凸函数类,我们的方法可以收敛到一阶稳定点,同时实验证明了我们的方法的性能和对过时数据的容忍度。