以后验推断方法为基础的联邦学习算法可以通过在客户端推断本地数据的后验分布来推断全局后验分布,而 FedPA 则提供了一种计算和通信高效的近似后验推断算法,使用 MCMC 进行客户端的近似推断。
Oct, 2020
研究了在存在随机和动态通信故障的情况下的联邦学习,提出了 Federated Postponed Broadcast(FedPBC)方法,通过推迟广播全局模型,在非凸目标函数中达到稳定点,通过实验验证了分析结果。
Apr, 2024
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本文主要研究联邦学习中的非凸优化问题,提出了一种简单的算法 FedPBC 来解决在通信不稳定情况下 Federated Average 无法最小化全局目标函数的问题。该算法通过延迟全局模型广播来实现隐式的客户之间的消息传递,从而达到了预期的收敛特性。
Jun, 2023
提出了一种 FediAC 算法,通过在客户端报告重要的模型更新索引并在模型聚合阶段上传全局重要的模型更新,从而解决在联邦学习中部署程序可编程交换机的挑战,减少了内存空间和通信流量,同时提高了模型的准确性。
Feb, 2024
这篇论文提出了一种名为 FedDec 的算法,通过在 FL 的本地梯度更新之间交错点对点通信和参数平均化的方式,利用跨代理通信来改善 FL 的性能,证明了该算法在数据异构性、设备部分参与和光滑且强凸成本的假设下收敛,并表明代理间通信图谱的谱会改善收敛。
本研究提出一种鲁棒的联邦学习方案,通过并行优化、正则化等方法减小噪声影响,并从理论角度分析了其收敛性和准确性改善,仿真实验进一步验证了该方案的有效性。
Nov, 2019
本文研究边缘设备协作学习中的无线联邦学习,其中利用无线接入点作为参数服务器,使用 “over-the-air” 聚合方案实现全局模型的积极性和设备间的协作,通过使用接收波束成形方案来补偿缺乏完美信道状态信息带来的破坏效应,证明该算法在具有足够天线数量的情况下可以改善其性能。
该研究提出了一种名为 FedLaAvg 的简单分布式非凸优化算法,用于解决在移动环境下采用联邦学习时客户端不连续可用的问题,并证明了其达到了收敛速度为 $ O (E^{1/2}/(N^{1/4} T^{1/2}))$ 的水平。
Feb, 2020
本文提出了一种更高效的混合联邦与集中学习(HFCL)方法来解决客户端计算资源不足的情况,该方法可以将数据集分别发送给有足够计算资源的客户端和参数服务器,从而在减少通信开销和提高学习准确率方面都具有更好的性能表现。
May, 2021