解锁FedNL:自给自足的计算优化实现
本文介绍了FedDANE,一种从分布式优化的方法DANE基础上,为应对联邦学习的现实约束而提出的一种优化方法。作者提供了该方法应用于凸性和非凸性函数时的收敛性保证,并通过从合成和真实数据集上的实验模拟,将FedDANE与 FedAvg 和 FedProx 的表现进行了类比,发现其性能不如基线模型,作者归因于设备参与率低和设备之间的统计异质性,并提出了一些未来工作的方向。
Jan, 2020
本文提出了一种名为FedAT的新颖联邦学习方法,它通过异步分层训练和同步内部层训练的协同作用来减小杂散因素的影响,同时使用加权聚合启发式和基于折线编码的压缩算法,提高了收敛速度和预测性能,并最大程度地减小了通信成本。
Oct, 2020
本研究提出了一族Federated Newton Learn方法,它不仅能够使用于广义线性模型,还可应用于压缩本地Hessians等通用收缩压缩算子,具有隐私增强和通信效率等优点,并以实验证明了其与关键基线相比具有卓越的通信复杂度。
Jun, 2021
本文提出了一种称为Federated Dynamic Sparse Training(FedDST)的novel FL框架,旨在动态提取和训练目标网络中的稀疏子网络,并实现了在设备计算和网络通信方面的高效,相对于固定稀疏掩模的方法,它在本地异质性适应和FL性能方面具有较大的优势,在非i.i.d FL设置下,FedDST在数据传输上的表现显著优于竞争性算法。
Dec, 2021
提出了FedSSO,一种用于联邦学习的服务器端二阶优化方法,通过使用服务器端近似的拟牛顿方法,我们不仅将计算负担转移给了服务器,而且完全消除了客户端和服务器之间用于二阶更新的额外通信,我们提供了对新方法的收敛的理论保证,并在凸和非凸环境中展示了快速收敛和通信节省。
Jun, 2022
本文研究了如何有效地在联邦学习中使用预训练Transformer模型及其微调方法,实验结果表明,微调模型的偏置项是最好的策略,并且使用视觉-语言模型会比纯视觉模型的性能更好,且能提高模型精度并减少过拟合问题。
Nov, 2022
提出一种用于协调和训练多个同时进行的联邦学习任务的系统,名为MAS(Merge and Split),通过多任务架构将多个任务合并为一个任务进行训练,并根据任务之间的亲和度在训练过程中将其拆分成两个或更多任务继续训练,实验证明MAS方法在性能优化方面胜过其他方法,同时减少训练时间2倍并降低40%的能源消耗。
Jul, 2023
本篇论文以三个方向推动本地方法的理论基础:(1)建立FedAvg的尖锐界限;(2)提出了FedAvg的有原则的加速方法FedAc;(3)研究了扩展经典平滑设置的Federated Composite Optimization问题。
Jan, 2024
提出了一个缓冲异步联邦同时训练算法 FedAST,通过克服模型缓慢和自适应分配异构任务的客户资源来解决瓶颈问题,实验证明与现有同时联邦学习方法相比,能够达到多任务训练时间的最多46.0%的减少。
Jun, 2024