警惕:组装投影头以提高联邦模型的可靠性
该论文提出了FedH2L方法,通过相互蒸馏和分散学习的方式来实现联邦学习中不同参与者拥有不同网络结构和数据分布的情况下训练一个强而全面的全局模型。
Jan, 2021
通过对几何属性的可视化和预测误差的分解,本文研究了模型平均在联邦学习中成功的原因,并提出采用迭代移动平均法来减少预测误差并限制最大距离的提高精度和训练速度。
May, 2023
基于深度生成模型的高效联邦学习数据集精简框架,在服务器端显著减少本地设备的计算和通信需求,提高客户端隐私,同时有效降低资源利用,通过理论分析和实证证据验证了其在高度异构的联邦学习环境中相较于非数据集精简技术的优越性,准确性提升高达40%,超过已有的数据集精简方法18%。
Dec, 2023
在非同步聯邦學習(AFL)的部署中,我們提出一種動態全球模型聚合方法,以應對異質設備和在客戶端之間非相同分佈的數據所帶來的性能挑戰。我們的聚合方法基於客戶端的上傳頻率對其模型更新的權重進行評分和調整,以適應設備能力的差異。此外,我們在客戶端上傳本地模型後立即提供更新的全球模型,以減少閒置時間並提高訓練效率。我們在由10個模擬客戶端組成的AFL部署中評估了我們的方法,這些客戶端具有異質的計算限制和非相同分佈的數據。使用FashionMNIST數據集的模擬結果顯示,與最先進的方法PAPAYA和FedAsync相比,全球模型的準確性分別提高了10%和19%。我們的動態聚合方法即使在限制的客戶資源和統計數據異質性下也可以實現可靠的全球模型訓練,從而提高了現實世界的FL部署的韌性和可擴展性。
Jan, 2024
FedStale是一种新颖的算法,通过在每一轮中使用参与客户端的新鲜更新和未参与客户端的陈旧更新的一个凸组合来更新全局模型,以此在处理数据和参与度异质性方面超越了之前的方法。
May, 2024
FedTSA是一种针对FL系统异构性的集群两阶段聚合方法,通过根据客户端的能力进行聚类,使用传统加权平均和深度相互学习来聚合同质和异质模型,验证了FedTSA作为一种有前景的模型异构FL方法。
Jul, 2024
本研究针对联邦学习中的数据异质性问题,提出了相应的解决方案,以提高模型在制造和共享生产环境中的有效性。文章系统地分析了异质性的类型及其对模型训练的影响,并提出个性化建模、稳健聚合技术等新策略,以增强模型的鲁棒性和训练的公平性,推动工业4.0背景下的联邦学习发展。
Aug, 2024
本研究解决了联邦学习(FL)中模型校准不足的问题,提出了一种名为非均匀校准的联邦学习(NUCFL)框架。该框架通过根据每个客户端本地模型与全局模型之间的统计关系动态调整校准目标,有效提高了模型的可靠性和准确性,尤其适用于异构数据环境。实验表明,NUCFL在多种FL算法中表现出了增强的准确性和模型校准能力。
Sep, 2024
本研究解决了联邦学习(FL)模型预测中缺乏可靠置信度的问题,提出了一种新的非均匀校准框架(NUCFL),该框架将FL与模型校准概念相结合。通过动态调整基于每个客户端本地模型与全球模型之间的统计关系,NUCFL能够在多样化的数据分布条件下有效提升模型校准精度,同时保持模型准确性。
Sep, 2024