联邦学习与元学习中的收敛与准确性权衡
研究一种算法家族——局部更新方法,证明其对于二次目标表现出随机梯度下降,设计了新的收敛速度来平衡模拟损失函数的条件数与真实损失函数之间的差距,并在实验中展示了适当的学习率调整对于达到最优行为的重要性以及自适应学习率衰减的实用方法.
Jul, 2020
本文提出了FedLin框架来应对分布式学习中的目标异质性、系统异质性和不频繁不准确的通信挑战,当客户端的本地损失函数是光滑且强凸的时,FedLin保证线性收敛并最终收敛到全局最小点,并且在压缩比例下仍然保持线性收敛速度。
Feb, 2021
本文探讨在联邦学习中使用自适应优化方法对于本地更新的影响,指出自适应优化方法虽然可以加速模型收敛,但可能导致解决方案出现偏差,为此提出了纠正技术以克服这种不一致性,并在现实联合训练任务上进行了广泛实验,结果表明与没有局部自适应性的基线相比,所提出的算法可以实现更快的收敛和更高的测试准确性。
Jun, 2021
提出一种新的联邦学习框架,通过发送全局梯度估计的加速模型来引导本地梯度更新,从而改进了服务器端聚合步骤的稳定性,实现了自然聚合和传递全局更新信息,同时不需要额外的通信成本和客户机中存储过去的模型。在现实数据下进行全面的实证研究,证明了所提方法在精度和通信效率方面相对于现有方法的显着性能,尤其是在低客户端参与率下。
Jan, 2022
本文研究了在联邦学习中的服务端优化问题,运用随机重排等技术,证明在使用 Federated Averaging 算法的情况下,通过调整本地学习率,可以显著提高求解凸优化和非凸优化问题的效果。同时,通过选择合适的本地学习率,可以有效克服通信瓶颈问题。
Jan, 2022
通过利用全局梯度下降和本地自适应修正优化器,提出了一种新颖的基于动量的算法来解决分布式学习中的不准确梯度估计以及局部自适应优化器导致的收敛困难和客户端漂移等问题。在理论上,我们在部分参与设置下建立了FedLADA的收敛速度与线性加速特性。此外,我们在真实世界的数据集上进行了广泛的实验,证明了我们所提出的FedLADA的有效性,它可以大大减少通信轮数,并且比几个基准模型达到更高的准确性。
Jul, 2023
FedStale是一种新颖的算法,通过在每一轮中使用参与客户端的新鲜更新和未参与客户端的陈旧更新的一个凸组合来更新全局模型,以此在处理数据和参与度异质性方面超越了之前的方法。
May, 2024
通过在联邦学习中本地估计全局扰动的方向,FedLESAM算法提高了联邦Sharpness-Aware Minimization(SAM)方法的质量和效率。
May, 2024
本研究解决了当前联邦学习中的超参数调整问题,提出了两种自动缩放全球模型更新的算法。这些新方法不仅确保了在强凸联邦目标下的线性收敛性,还能够有效替代计算缩放因子所需的服务器目标函数值。实验证明,这些方法在凸和非凸问题上性能优越或与流行的联邦学习算法相当。
Aug, 2024
本研究针对联邦学习中局部更新对泛化性能影响的缺乏重视的问题,提出了一种新的理论分析方法。我们通过线性模型的框架,探讨了数据异质性与局部更新对泛化性能的量化影响,并提供闭式的模型误差表达,揭示了局部更新次数与泛化性能演变的关系,为联邦学习的有效实施提供了新的见解。
Sep, 2024