Aug, 2024

面向无超参数联邦学习

TL;DR本研究解决了当前联邦学习中的超参数调整问题,提出了两种自动缩放全球模型更新的算法。这些新方法不仅确保了在强凸联邦目标下的线性收敛性,还能够有效替代计算缩放因子所需的服务器目标函数值。实验证明,这些方法在凸和非凸问题上性能优越或与流行的联邦学习算法相当。