SAGDA: 在联邦式 Min-Max 学习中实现 O (ε^{-2}) 通信复杂度
本文提出了一种名为 local SGDA 的算法来缓解分布式学习中的通信开销,可在广泛的分布式 minmax 优化问题下实现可证明的收敛性和更少的通信次数。
Feb, 2021
本文提出了一种名为 Federated Stochastic Smoothed Gradient Descent Ascent (FESS-GDA) 的新算法,利用平滑技术进行联邦极小极大优化,并通过实证研究展示了其在生成对抗网络(GANs)和公平分类的实际联邦学习任务中的实用效率。
Nov, 2023
本文提出了一种新的联邦学习算法 FedPAGE,通过利用最新的优化 PAGE 方法来代替 FedAvg 中的 SGD,从而进一步减少通信复杂度。在联邦凸优化和非凸优化两种情境下,FedPAGE 都比之前的本地方法使用更少的通信轮次,为联邦凸优化和非凸优化实现了通信复杂度方面的新的最优结果。
Aug, 2021
本文探讨了在大规模联邦学习中由于通信过载而引起的压缩问题,提出了一种可减少噪声并提高拜占庭攻击鲁棒性的压缩梯度差分方法,并提供了理论证明和数值实验结果。
Apr, 2021
提出针对联邦学习模型的新型优化公式,通过寻求全局模型与本地模型之间的平衡,使各参与设备能够从其私有数据中学习,而不需要通信。此方法类似于联邦平均 /local SGD,但能够改善具有异构数据的问题的通信,同时发现个性化能够降低通信复杂度。
Feb, 2020
本文对联邦线性随机逼近(FedLSA)算法进行了非渐进分析,定量化了异质代理的本地训练引入的偏差,并调查了算法的样本复杂度。我们展示了 FedLSA 的通信复杂度与所需精度 ε 的多项式缩放,从而限制了联邦的好处。为了克服这一问题,我们提出了 SCAFFLSA,这是 FedLSA 的一种新变体,它使用控制变量来校正本地训练的偏差,并证明其在统计异质性方面没有假设的收敛性。我们将所提出的方法应用于使用线性函数逼近的联邦时序差异学习,并分析了相应的复杂度改进。
Feb, 2024
本文旨在研究在异构样本上进行非凸优化的联邦分布式学习,具体而言,我们将分析分布式方法相对于均匀样本中的隐含方差减少特性在异构样本中的应用,并证明其在广义的非凸和条件下的收敛性与最优性.
Oct, 2019