Oct, 2022

分层联邦学习中的时间最小化

TL;DR本文提出了一种层次化联邦学习系统,结合联邦学习中的通信优化问题,通过优化本地迭代计数和边缘迭代计数,减少模型参数通信和计算延迟,并提出一种时限最小化的 UE-to-edge 关联算法。仿真结果表明,最优的边缘服务器和本地迭代计数可以使全局模型更快地收敛,利用 UE-to-edge 关联的策略可以最小化层次联邦学习延迟。