FedTSA:基于聚类的两阶段聚合方法:面向模型异构的联邦学习
我们研究了数据异质性对联邦学习的影响,发现许多之前的联邦学习方法并没有深入探讨不同类型的数据异质性以及这些异质性如何影响参与客户端的准确性表现。我们研究发现,当前设置中的数据异质性不一定是问题,事实上,它对FL参与者有益。
Sep, 2022
本文提出了第一个针对不同客户的异构和相关可用性的FedAvg类FL算法的收敛分析,发现相关性如何不利地影响算法的收敛速率,并且介绍了一种新的算法CA-Fed,在最大化收敛速度和最小化模型偏差之间寻求平衡,同时忽略了可用性低和相关性大的客户。实验结果表明,CA-Fed在合成数据集和实际数据集上比AdaFed和F3AST等现有算法具有更高的时间平均准确性和更低的标准差。
Jan, 2023
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023
在非同步聯邦學習(AFL)的部署中,我們提出一種動態全球模型聚合方法,以應對異質設備和在客戶端之間非相同分佈的數據所帶來的性能挑戰。我們的聚合方法基於客戶端的上傳頻率對其模型更新的權重進行評分和調整,以適應設備能力的差異。此外,我們在客戶端上傳本地模型後立即提供更新的全球模型,以減少閒置時間並提高訓練效率。我們在由10個模擬客戶端組成的AFL部署中評估了我們的方法,這些客戶端具有異質的計算限制和非相同分佈的數據。使用FashionMNIST數據集的模擬結果顯示,與最先進的方法PAPAYA和FedAsync相比,全球模型的準確性分別提高了10%和19%。我們的動態聚合方法即使在限制的客戶資源和統計數據異質性下也可以實現可靠的全球模型訓練,從而提高了現實世界的FL部署的韌性和可擴展性。
Jan, 2024
FedShift是一种新颖的算法,旨在在双重异质性情况下提高训练速度和模型的准确性,通过量化和移位技术改善客户参与度,并提升在异质性环境中的准确性3.9%。
Feb, 2024
通过引入时间驱动的异步聚合策略,以及使用区分性模型选择算法,提出了一种针对异构系统的同步联邦学习框架,该框架在提高系统效率和鲁棒性的同时,实现了对传统同步联邦学习的延迟减少50%和学习准确性平均提高3%的改进。
May, 2024
异构联邦学习领域中,关键挑战是在具有不同数据分布、模型结构、任务目标、计算能力和通信资源的多个客户端之间高效协作训练模型。本文首先概述了异构联邦学习的基本概念,并从数据、模型、任务、设备和通信五个方面总结了在联邦学习中的研究挑战。此外,我们探讨了现有最先进的方法如何应对异构联邦学习的异质性,并将这些方法在数据级别、模型级别和架构级别进行分类和回顾。随后,本文详细讨论了在异构联邦学习环境中的隐私保护策略。最后,本文讨论了目前存在的开放问题和未来研究方向,旨在推动异构联邦学习的进一步发展。
May, 2024
元联邦学习通过优化的元汇聚器导航异构模型更新的复杂性,利用元特征增强了全局模型的性能,从而保证了对每个本地模型准确性的个性化汇聚。在四个与医疗相关的数据集上进行的实证评估显示,Meta-FL框架具有适应性、效率、可扩展性和鲁棒性,优于传统的联邦学习方法。此外,Meta-FL在较少的通信轮次中实现了优越的准确性,并且能够在不影响性能的情况下管理不断扩大的联邦网络,显示出卓越的效率和可扩展性。
Jun, 2024
本研究针对联邦学习中的数据异质性问题,提出了相应的解决方案,以提高模型在制造和共享生产环境中的有效性。文章系统地分析了异质性的类型及其对模型训练的影响,并提出个性化建模、稳健聚合技术等新策略,以增强模型的鲁棒性和训练的公平性,推动工业4.0背景下的联邦学习发展。
Aug, 2024