需要时雇佣:基于竞拍的渐进参与者招募的联合学习
基于拍卖的联邦学习(AFL)引起了广泛的研究兴趣,因其能通过经济手段激励数据所有者(DO)参与 FL。本文提出了一种面向 DO 的首个代理导向的联合定价、接受和分委托决策支持方法(PAS-AFL),通过考虑 DO 的当前声誉、待处理的 FL 任务、愿意训练 FL 模型以及其与其他 DO 之间的信任关系,提供了一种系统的方法来进行 AFL 出价接受、任务分委托和定价的联合决策,并基于 Lyapunov 优化来最大化其效用。在六个基准数据集上进行的大量实验证明了 PAS-AFL 相比六种替代策略的重要优势,平均来说,在效用和最终 FL 模型的测试准确率方面,它分别比最佳基准线提高了 28.77% 和 2.64%。
May, 2024
该论文提供了首次的智能代理人对拍卖联邦学习(IA-AFL)文献的综述,通过提出一个独特的多层次分类法,将 IA-AFL 的现有研究组织成为以利益相关者、采用的拍卖机制和代理人目标为基础的多角度视角,同时分析了现有方法的局限性、总结了常用的性能评估指标,并探讨了未来有前景的方向,为 IA-AFL 生态系统中的有效而高效的利益相关者导向的决策支持提供了基础。
Apr, 2024
在非同步聯邦學習 (AFL) 的部署中,我們提出一種動態全球模型聚合方法,以應對異質設備和在客戶端之間非相同分佈的數據所帶來的性能挑戰。我們的聚合方法基於客戶端的上傳頻率對其模型更新的權重進行評分和調整,以適應設備能力的差異。此外,我們在客戶端上傳本地模型後立即提供更新的全球模型,以減少閒置時間並提高訓練效率。我們在由 10 個模擬客戶端組成的 AFL 部署中評估了我們的方法,這些客戶端具有異質的計算限制和非相同分佈的數據。使用 FashionMNIST 數據集的模擬結果顯示,與最先進的方法 PAPAYA 和 FedAsync 相比,全球模型的準確性分別提高了 10% 和 19%。我們的動態聚合方法即使在限制的客戶資源和統計數據異質性下也可以實現可靠的全球模型訓練,從而提高了現實世界的 FL 部署的韌性和可擴展性。
Jan, 2024
许多现有的拍卖式联邦学习假设只有一个数据消费者和多个数据所有者参与,在实际的联邦学习市场中有多个数据消费者可以竞争吸引数据所有者加入任务中。本文提出了一种新型的拍卖式联邦学习数据消费者效用最大化竞标策略(Fed-Bidder),它通过提供适应不同的市场动态的中标功能来有效地和高效地使多个联邦学习数据消费者竞争数据所有者的加入。基于六个常用基准数据集的广泛实验表明,Fed-Bidder 相对于四种最先进的方法具有显著的优势。
May, 2023
本文提出了一种新的联邦学习模型 ——“Anarchic Federated Learning”,其中探索了参与联邦学习的工作者的自由度与收敛速度的平衡,并提出了两种算法,验证在现实数据集下的有效性以及成果。
Aug, 2021
通过 Lyapunov 优化的公平感知联邦用户选择(FairFedCS)方法可以在联邦学习中动态调整联邦用户的选择概率,根据联邦用户的声誉、参与联邦任务的次数和对最终模型性能的贡献,共同考虑性能和公平性。在真实的多媒体数据集上进行的大量实验表明,FairFedCS 平均实现了 19.6% 更高的公平性和 0.73% 更高的测试准确性,超过了最佳性能的现有方法。
Jul, 2023
本论文提出了一个新的分析框架来激励参与者中心的联邦学习,分别提出了两种贡献无关的 FL(COFL)和贡献感知 FL(CAFL)游戏模型,讨论了 Nash 平衡的独特性和存在性并设计了有效的算法来达到平衡解决方案。 大量的性能评估表明,COFL 中存在着 free-riding 现象,而采用具有优化的最小阈值的 CAFL 模型可以大大缓解此现象。
Jul, 2022
该研究基于一项新的分类机制,综合分析和总结了现有各种异步 FL 范式,包括异构设备上的设备异构性、数据异构性、隐私和安全性,以及异构设备上的应用。该研究揭示了该领域面临的挑战并提出了潜在的研究方向。
Sep, 2021