公平联邦学习的半方差缩减
我们提出了一种名为 mFairFL 的方法,通过使用差分乘数构建优化目标,同时实现组公平和客户公平,以解决在隐私不受损失的情况下训练公平的 FL 模型的问题。理论分析证明 mFairFL 有助于模型的公平性,并且基于三个基准数据集的实验评估显示 mFairFL 相对于七个最先进的基准模型具有显著优势。
Dec, 2023
本文介绍并研究了联邦学习中的公平性问题,提出了一种新的公平性概念 —— 比例公平性,并通过 Bargaining Games 建立联系,进而提出了一种简单易实现的算法 PropFair,用于在联邦学习中寻找比例公平的解,该算法可以在视觉和语言数据集上进行广泛的实验证明,平衡了所有客户端和最差的 10% 客户端的平均性能。
Feb, 2022
本文探讨联邦学习中不公平性的问题,提出了解决方案 ——FedFV 算法,并且基于余弦相似性检测梯度冲突,在梯度平均之前消除这些冲突。实验证明,FedFV 在公平性、准确性和效率方面比现有方法表现更好,并能收敛于 Pareto 稳态解。
Apr, 2021
本文提出了一种基于多目标优化的联邦学习框架,通过优化一个最大替代函数将不同本地客户端(数据源)的算法公平性和一致性纳入考虑,以实现最优解的 Pareto 优化来实现公平性和一致性。
Aug, 2021
该研究提出了一种新的联邦学习算法,专门解决群体公平性问题,该算法在统计异质性和不同数量的客户端存在的情况下,既可以定量又可以定性地改善公平性,并几乎不影响准确度,并且与本地差分隐私兼容,通信成本微不足道。这一算法对于提高敏感应用领域(如医疗保健或刑法司法)的联邦学习系统的公平性和有效性具有重要的潜力。
Jul, 2023
该研究论文提出了一种在联邦学习中实现三重公平性的公平客户选择方法,通过公平的客户选择策略、公平的参与轮数和客户间的公平准确度分布,与现有技术基准相比,在 IID 数据上减少了 18.15% 的准确率差异,在非 IID 数据上减少了 54.78% 的准确率差异,并且平均训练时间减少了 24.36%。
Jan, 2024
该研究提出了一个名为 Fed_BVA 的对抗鲁棒联邦学习框架,改进了服务器和客户端更新机制,通过最大化服务器更新期间的偏差和方差生成对抗性示例,并在客户端更新期间学习这些示例的对抗性鲁棒模型更新。实验证明,该框架对 IID 和非 IID 情况下的白盒和黑盒对抗性破坏具有鲁棒性。
Sep, 2020
提出了基于差分隐私机制的稀疏化和动量驱动的方差减少方法,以防御拜占庭攻击,并保证演算法的客户端隐私保障。通过与现有方法的比较实验证明了该框架提高了系统的强韧性,并取得了较强的隐私保证。
Sep, 2023