FedNL: 将牛顿类方法应用于联邦学习
本研究介绍了一种名为 FedNew 的新型框架,通过引入两级框架、替换传统方法中需要从客户端传输 Hessian 信息的环节等方式解决了低通信效率、低隐私性等问题,并使用随机量化等方式将通信开销显著降低,在实际数据集上的实验显示出了优于现有方法的性能。
Jun, 2022
提出了一种名为 Federated Newton Sketch 方法(FedNS)的算法,通过通信 sketched square-root Hessian 来逼近中心化的 Newton's 方法,以此解决了 Hessian 矩阵的通信复杂性问题,实现了快速收敛率,并首次达到了超线性收敛率。
Jan, 2024
本研究使用增量 Hessian 估计器在协同训练集中设计第一个估计全局目标曲率的零阶联邦学习算法,以达到超线性收敛,通过在 Stiefel 流形中对随机搜索方向进行采样以提高性能。我们通过使用同步的伪随机数生成器以一种通信高效和隐私保护的方式,在中央服务器上构建梯度和 Hessian 估计器。我们对我们的算法进行了理论分析,命名为 FedZeN,证明了具有高概率的局部二次收敛和全局线性收敛的零阶精度。数值模拟验证了超线性收敛速率,并表明我们的算法优于文献中可用的零阶联邦学习方法。
Sep, 2023
提出了一种名为 FedElasticNet 的通信高效且健壮的联邦学习框架,利用弹性网正则化器解决通信成本和客户漂移问题。此框架可与先前的联邦学习技术相结合,有效地同时解决通信和漂移问题。
Oct, 2022
通过以网络信息理论为出发点,设计了 FedNC,一种融合了网络编码概念的联邦学习通信框架,该框架能够提高传统联邦学习的安全性、吞吐量和鲁棒性。在此基础上可以进一步设计更多的应用和变体。
May, 2023
本文提出了 FedLin 框架来应对分布式学习中的目标异质性、系统异质性和不频繁不准确的通信挑战,当客户端的本地损失函数是光滑且强凸的时,FedLin 保证线性收敛并最终收敛到全局最小点,并且在压缩比例下仍然保持线性收敛速度。
Feb, 2021
本文介绍了 FedDANE,一种从分布式优化的方法 DANE 基础上,为应对联邦学习的现实约束而提出的一种优化方法。作者提供了该方法应用于凸性和非凸性函数时的收敛性保证,并通过从合成和真实数据集上的实验模拟,将 FedDANE 与 FedAvg 和 FedProx 的表现进行了类比,发现其性能不如基线模型,作者归因于设备参与率低和设备之间的统计异质性,并提出了一些未来工作的方向。
Jan, 2020
在本文中,我们提出了基于局部适应性和服务器端适应性的新的通信高效的联邦学习算法,通过使用新型协方差矩阵预处理器,我们的方法在理论上提供了收敛保证,并在 i.i.d. 和非 i.i.d. 设置下取得了最先进的性能。
Sep, 2023
我们引入 FedComLoc 算法,集成了实用和有效的压缩技术到 Scaffnew 算法中,以进一步提高通信效率。通过使用流行的 TopK 压缩器和量化技术进行广泛实验,证明了在异构环境中大幅减少通信开销的能力。
Mar, 2024