异构数据上顺序联邦学习的收敛性分析
对于异构数据上的序列联邦学习 (SFL) 的收敛理论尚缺乏解决方案,本研究通过建立上下界,针对强凸、一般凸和非凸目标函数分别得出上界,以及匹配的强凸和一般凸目标函数的下界,将 SFL 的上界与平行联邦学习 (PFL) 的上界进行对比,结果表明在高度异构的情况下,SFL 较 PFL 表现更出色,并通过二次函数和真实数据集的实验结果验证了这一反直觉的比较结果。
May, 2024
对于高度异构的数据,在并行联邦式 DE in the literature, and this paper aims to fill this gap. The analysis of SFL can be more challenging than that of federated learning (FL), due to the potential dual-paced updates at the clients and the main server. We provide convergence analysis of SFL for strongly convex and general convex objectives on heterogeneous data.
Feb, 2024
通过在线模型提取,本文提出了一个统一的异构联邦学习算法框架,并进行了一般性的收敛性分析,证明了在某些充分条件下,这些算法对于标准异构联邦学习的一般光滑成本函数会收敛于一个静止点。此外,还阐明了影响收敛的两个关键因素:模型提取噪音和最小覆盖指数,强调了局部模型提取的联合设计在高效异构联邦学习中的重要性。
Oct, 2023
本论文提出了一个数据异构鲁棒的联邦学习方法 ——FedGSP,该方法使用动态序列 - 并行协作训练的新概念,通过将 FL 客户端分配到同质组中最小化组与组之间的整体分布差异,增加并行度并通过一种新颖的 Inter-Cluster Grouping (ICG) 算法来辅助分配,该算法利用重心等价定理简化 NP 难问题,实验结果表明 FedGSP 相比七种现有方法平均提高了 3.7%的准确率,并将训练时间和通信成本降低了 90%以上。
Jan, 2022
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
本文提出了 FedLin 框架来应对分布式学习中的目标异质性、系统异质性和不频繁不准确的通信挑战,当客户端的本地损失函数是光滑且强凸的时,FedLin 保证线性收敛并最终收敛到全局最小点,并且在压缩比例下仍然保持线性收敛速度。
Feb, 2021
本文提出了一种名为 FedCLG 的新算法,它可以在类似于混合 FL 的情形下防止部分参与的限制,同时保护客户隐私并实现模型聚合。数值实验表明,该算法胜过现有方法。
Apr, 2023
提出了 MiniBatch-SFL 算法,通过将模型在切割层处分为两部分,在减轻客户端设备的计算负载的同时解决了分布式学习中的客户端偏移问题。实验证明,相对于传统的 SFL 和 FL 方法,MiniBatch-SFL 在高度非独立同分布数据上的准确性提升分别可达 24.1% 和 17.1%。
Aug, 2023
在资源受限环境中,通过介绍聚类正则化和全局更新频率适应的控制算法,我们提出了一种新的训练模型系统,用于解决联合学习中的数据非独立同分布和模型收敛性问题,该系统在减少训练时间和通信成本的同时提高了准确性。
Jul, 2023
通过提出一种局部模型多样性增强策略,我们改进了非独立同分布(non-IID)数据下的一次性序列联邦学习,从而提高了全局模型的性能并保持低通信成本。
Apr, 2024