走向多目标统计公平联邦学习
我们提出了一种名为 mFairFL 的方法,通过使用差分乘数构建优化目标,同时实现组公平和客户公平,以解决在隐私不受损失的情况下训练公平的 FL 模型的问题。理论分析证明 mFairFL 有助于模型的公平性,并且基于三个基准数据集的实验评估显示 mFairFL 相对于七个最先进的基准模型具有显著优势。
Dec, 2023
为了提高联邦学习系统的公平性,本研究使用了公平度量指标构建本地公平模型,并提出了一种隐私保护的公平联邦学习方法。实验结果表明,隐私保护提高了公平模型的准确性,但在隐私、公平和实用性之间存在权衡。
Nov, 2023
通过应用裁剪技巧与高斯机制来解决不包含验证数据的公平差分私有联邦学习框架的可能出现的偏见更新问题,同时审查了隐私和公平性在联邦学习中的相关工作,并强调了 MITIGATE 偏见和确保隐私的最新进展和方法。
May, 2023
提出了 GLOCALFAIR,一种可同时改善联合学习中全局和本地群体公平性的客户端 - 服务器协同设计公平性框架,无需敏感统计数据即可实现全局模型公平性,并保持较高的效用和客户公平性。
Jan, 2024
通过 Lyapunov 优化的公平感知联邦用户选择(FairFedCS)方法可以在联邦学习中动态调整联邦用户的选择概率,根据联邦用户的声誉、参与联邦任务的次数和对最终模型性能的贡献,共同考虑性能和公平性。在真实的多媒体数据集上进行的大量实验表明,FairFedCS 平均实现了 19.6% 更高的公平性和 0.73% 更高的测试准确性,超过了最佳性能的现有方法。
Jul, 2023
本论文提出了一种名为 FedVal 的新方法,该方法基于服务器端验证方法,使用创新的评分函数来评估客户端更新,并确定本地训练模型之间的最佳聚合平衡,从而提高鲁棒性和公平性,同时维护差分隐私的系统能力。在 CIFAR-10,FEMNIST 和 PUMS ACSIncome 数据集上的广泛实验证明了我们的方法的有效性,实现了最先进的性能。
Jun, 2023
该研究提出了一种新的联邦学习算法,专门解决群体公平性问题,该算法在统计异质性和不同数量的客户端存在的情况下,既可以定量又可以定性地改善公平性,并几乎不影响准确度,并且与本地差分隐私兼容,通信成本微不足道。这一算法对于提高敏感应用领域(如医疗保健或刑法司法)的联邦学习系统的公平性和有效性具有重要的潜力。
Jul, 2023
通过引入 EquiFL,增强联邦学习环境中的本地和全局公平性,同时确保准确性和公平性之间的良好平衡,并通过协调机制防止偏见在合作阶段间的传播。在多个基准测试中进行了广泛的实验证明 EquiFL 不仅在每个客户端实现了准确性和公平性之间更好的平衡,还实现了全局公平性,并确保了客户端之间的性能公平分布。此外,我们还展示了 EquiFL 在一个真实的分布式医疗应用数据集中的好处,特别是在预测各个医院地点对患者治疗效果方面。
Jun, 2024