本文以联邦学习为背景,提出一种联合带宽分配和设备调度问题的解决方案,该方案通过一个贪心算法和运行时间预算中定向分配宽带的优化模型实现,从而在模型精度和训练时间预算方面实现了最好的性能表现。
Nov, 2019
用于解决联邦学习中数据隐私问题导致的设备端数据无法被中心服务器使用的问题,本文提出了一种基于估计方案的设备选择算法,以最小化类别不平衡来提高联邦学习全局模型的收敛性能。
Nov, 2020
本文介绍了自适应联邦学习方法,可根据选择的本地设备和每轮训练中的本地迭代次数,最小化学习时间和能耗成本,并分析了总成本与控制变量之间的关系及其上限。作者开发了一种基于低成本采样的算法来学习收敛相关的未知参数,并通过模拟和实验验证了解决方案,证明其在不同数据集、机器学习模型和异构系统设置方案中都能实现接近最优的性能。
Dec, 2020
本文通过提出一种基于联邦平均的高效 FL(FedFog)算法,结合一种新型的面向网络的 FL 优化问题,提高了资源利用率并在保证学习精度的同时,通过采用用户聚合策略,缓解慢用户的影响,并减小了时间开销。对多项真实 FL 任务的数值结果进行了广泛的理论收敛验证和实际应用展示。
Jul, 2021
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
提出了一种新的异步联邦优化算法,用于在海量边缘设备上进行培训,具有近线性收敛全局最优点的证明,可用于强凸和一类非凸问题,实验证明在各种应用中算法收敛快且容忍陈旧。
Mar, 2019
本文提出了 FedSpeed 方法,通过应用 prox-correction term 和混合随机梯度下降和额外梯度上升步骤的扰动方法,解决了分布式学习框架中由于本地不一致的最优和过度拟合引起的非消失偏差问题。实验表明 FedSpeed 在真实数据集上的效率显著快于几种基线算法,并实现了最先进的性能。
Feb, 2023
通过提出一种半联合学习(SemiFL)范式,将基站(BS)和设备的计算能力结合起来,实现集中式学习(CL)和联邦学习(FL)的混合实施。通过设计一种新颖的收发器结构,将空中计算和非正交多址接入应用于聚合和传输,提高了通信效率,并证明了 FL 和 CL 是 SemiFL 的特例。然后,通过联合优化发送功率和接收波束形成器来减小最优性差距,并提供了解析解。两个真实数据集上的广泛模拟实验结果证实了我们的理论分析,并显示相比于最先进的基准,所提出的 SemiFL 在 MNIST 数据集上取得了 3.2% 的准确度提高。
Oct, 2023
我们提出了一种新的联邦学习方法,通过动态正则化器在限制设备异构性和大量设备、部分参与和不平衡数据的同时,在凸和非凸情况下实现了高效训练。
Nov, 2021
提出了一种处理异构用户设备数据的联邦学习算法,同时结合对微波资源分配问题的优化,实现了收敛速率和能耗之间的平衡,并用 Tensorflow 实验验证了该算法的理论分析和优化表现。
Oct, 2019