基于版本年龄的联邦学习客户端调度策略
本文提出了一种叫做FedAlign的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的FL方法相当的精度。
Nov, 2021
本研究提出Continual Federated Learning(CFL)框架来处理时变异构数据,该框架可以从过去的本地数据集中提取信息和逼近本地目标函数,从而比之前的FL方法在复杂和现实场景下具有更快的收敛速度。
Dec, 2021
在联邦学习中,通过使用梯度反转技术将旧的模型更新转换为新的模型更新,我们提出了一种新的框架来有效地解决客户端模型更新的过时性问题,实验证明,我们的方法可以显著提高训练模型的准确性高达20%,并加速联邦学习进程高达35%。
Sep, 2023
提出了一种结合更新年龄(Age of Update)概念和数据 Shapley 指标的调度策略,以提高联邦学习的运行效率。该算法简单且通过模拟验证了其有效性。
Dec, 2023
FedStale是一种新颖的算法,通过在每一轮中使用参与客户端的新鲜更新和未参与客户端的陈旧更新的一个凸组合来更新全局模型,以此在处理数据和参与度异质性方面超越了之前的方法。
May, 2024
探索差分隐私联邦学习在时变数据库中的应用,着重讨论关于年龄、准确性和差分隐私之间的三重平衡,并提出了一个优化问题,旨在满足差分隐私要求的同时最小化聚合模型和不考虑差分隐私约束下获得的模型之间的损失差异。通过引入基于年龄的损失上界来充分利用调度的优势,进而提出了一种基于年龄的调度设计。仿真结果表明,我们提出的方案在性能上优于不考虑调度作为设计因素的经典差分隐私联邦学习策略,该研究对联邦学习中年龄、准确性和差分隐私的相互作用提供了深入见解,并对调度策略具有实际意义。
May, 2024
通过优化参数M和T,以减少通信成本和资源浪费,同时确保可接受的收敛速度,本研究提供了一个选择M和T的分析方案,其中全局模型的收敛可以通过参与者在参数服务器中的平均年龄作为指标来量化。
May, 2024
本研究解决了联邦学习中因有限通信资源导致的设备调度问题,尤其是公平工作负载分配和资源有效利用。提出了一种基于信息时效性的负载度量来优化调度策略,并引入去中心化的马尔可夫调度政策,显著提高了公平性和模型收敛速度。该方法的有效性通过仿真实验得到验证。
Aug, 2024