Sep, 2024
加速随机外梯度:混合 Hessian 和梯度相似性以减少分布式和联邦学习中的通信
Accelerated Stochastic ExtraGradient: Mixing Hessian and Gradient
Similarity to Reduce Communication in Distributed and Federated Learning
TL;DR本研究针对分布式和联邦学习中通信成本高和隐私保护的难题,提出了一种结合Hessian相似性和梯度相似性的新方法。该方法引入了数据相似性的思想以及客户端采样,同时通过噪声技术应对隐私问题。研究结果表明,所提方法能有效提升模型的收敛性,具有重要的实际应用潜力。