联邦学习中的协作公平性
本文提出了一种新的稳健公平联邦学习(Robust and Fair Federated Learning,RFFL)框架,通过声誉机制实现协作公平和对抗鲁棒性,可在基准数据集上实现高公正性并对不同类型的对手非常鲁棒。
Nov, 2020
通过应用裁剪技巧与高斯机制来解决不包含验证数据的公平差分私有联邦学习框架的可能出现的偏见更新问题,同时审查了隐私和公平性在联邦学习中的相关工作,并强调了 MITIGATE 偏见和确保隐私的最新进展和方法。
May, 2023
我们提出了一种名为 mFairFL 的方法,通过使用差分乘数构建优化目标,同时实现组公平和客户公平,以解决在隐私不受损失的情况下训练公平的 FL 模型的问题。理论分析证明 mFairFL 有助于模型的公平性,并且基于三个基准数据集的实验评估显示 mFairFL 相对于七个最先进的基准模型具有显著优势。
Dec, 2023
本论文提出了一个新的分析框架来激励参与者中心的联邦学习,分别提出了两种贡献无关的 FL(COFL)和贡献感知 FL(CAFL)游戏模型,讨论了 Nash 平衡的独特性和存在性并设计了有效的算法来达到平衡解决方案。 大量的性能评估表明,COFL 中存在着 free-riding 现象,而采用具有优化的最小阈值的 CAFL 模型可以大大缓解此现象。
Jul, 2022
本文提出了一种个性化的联邦学习(CFL)系统,通过特殊设计的全局模型为每个客户定制个性化模型,采用在线训练的模型搜索辅助器和新型聚合算法,解决 FL 在多个维度上的异质性问题。实验证明,CFL 在 FL 训练和边缘推断方面具有全栈优势,并显著改进了模型准确性(在非异构环境中高达 7.2%,在异构环境中高达 21.8%)、效率和公平性。
Feb, 2023
提出了一种新的强化联邦学习(RFL)框架,通过深度强化学习在聚合过程中自适应优化客户贡献,提高模型对恶意客户的鲁棒性和参与者之间的公平性,在非独立分布的情况下实现鲁棒性和公平性,并通过验证集性能引导的奖励机制获得了可靠性和公平性的可比较水平。
Feb, 2024
提出了 GLOCALFAIR,一种可同时改善联合学习中全局和本地群体公平性的客户端 - 服务器协同设计公平性框架,无需敏感统计数据即可实现全局模型公平性,并保持较高的效用和客户公平性。
Jan, 2024
本论文通过策略提出了 Personalisation-aware Federated Learning (PaFL) 的模型,在语言任务中减少了 50% 的表现不佳客户端的数量,在图像任务中也避免了表现不佳客户端数量翻倍的情况,提高了边缘设备参与联邦学习的效率并有望在未来实验和理论分析上得到更多的应用。
May, 2023
提出并分析了一种后处理公平联邦学习 (post-FFL) 框架,该框架使用线性规划同时强制实施群体公平性和社区公平性,以提高全局模型的效用。实验证明,post-FFL 在提高群体公平性、社区公平性、通信效率和计算成本方面优于现有的内部处理公平联邦学习方法。
May, 2024