通过序贯决策追求联邦学习的整体福祉
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本文提出 q-Fair Federated Learning(q-FFL)并提出一种新的优化目标 ——q-FedAvg,旨在实现公平的资源分配;在联合数据集上验证了 q-FFL 和 q-FedAvg 的有效性和效率。
May, 2019
本文提出了一种公平感知的不可知联邦学习框架(AgnosticFair),它使用核重新加权函数在损失函数和公平性约束中为每个训练样本分配一个重加权值,从而能够在未知测试数据上实现高精度和公正性保证。实验结果表明,在数据转移的情况下,在两个真实数据集上的效果显著。
Oct, 2020
在非同步聯邦學習 (AFL) 的部署中,我們提出一種動態全球模型聚合方法,以應對異質設備和在客戶端之間非相同分佈的數據所帶來的性能挑戰。我們的聚合方法基於客戶端的上傳頻率對其模型更新的權重進行評分和調整,以適應設備能力的差異。此外,我們在客戶端上傳本地模型後立即提供更新的全球模型,以減少閒置時間並提高訓練效率。我們在由 10 個模擬客戶端組成的 AFL 部署中評估了我們的方法,這些客戶端具有異質的計算限制和非相同分佈的數據。使用 FashionMNIST 數據集的模擬結果顯示,與最先進的方法 PAPAYA 和 FedAsync 相比,全球模型的準確性分別提高了 10% 和 19%。我們的動態聚合方法即使在限制的客戶資源和統計數據異質性下也可以實現可靠的全球模型訓練,從而提高了現實世界的 FL 部署的韌性和可擴展性。
Jan, 2024
提出一种新的联邦学习框架,通过发送全局梯度估计的加速模型来引导本地梯度更新,从而改进了服务器端聚合步骤的稳定性,实现了自然聚合和传递全局更新信息,同时不需要额外的通信成本和客户机中存储过去的模型。在现实数据下进行全面的实证研究,证明了所提方法在精度和通信效率方面相对于现有方法的显着性能,尤其是在低客户端参与率下。
Jan, 2022
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
本研究旨在探讨有关机器学习模型中特定人群或群体受到偏待的问题以及解决方法,其中我们特别研究了本地模型与全局模型之间公平性的关系,并提出了一种基于惩罚性经验损失最小化的全局公平训练算法,实验证明我们的方法在保持高准确率的同时,相比本地公平训练方法能够更有效地提升公平性。
May, 2023
提出了一种名为 DQFFL 的具有强化学习的动态 q 公平联邦学习算法,旨在通过迭代聚合过程的客户权重分配来缓解联邦学习中设备聚合的差异并提高公平性。实验证明,DQFFL 在整体性能、公平性和收敛速度方面优于现有方法。
Nov, 2023
本文提出了一个新的理论框架,证明联邦学习可以比本地分类器严格提高模型的公平性,但目前的基于 FedAvg 的公平学习算法在性能上与中心化数据上训练的公平分类器相比牺牲了很多,为此我们提出了一种名为 FedFB 的基于隐私保护的公平学习算法,在分散数据上训练时可以有效地模拟中心化的公平学习,实验结果表明,FedFB 明显优于现有方法,有时甚至能够与中心训练模型的性能匹配。
Oct, 2021