Fed-Credit:具有可信管理的稳健联邦学习
本论文提出了一种名为 FedVal 的新方法,该方法基于服务器端验证方法,使用创新的评分函数来评估客户端更新,并确定本地训练模型之间的最佳聚合平衡,从而提高鲁棒性和公平性,同时维护差分隐私的系统能力。在 CIFAR-10,FEMNIST 和 PUMS ACSIncome 数据集上的广泛实验证明了我们的方法的有效性,实现了最先进的性能。
Jun, 2023
信用风险预测对商业银行和其他金融机构在授予贷款和减少潜在损失方面起着关键作用。本研究调查了联邦学习在信用风险评估中的可行性,并展示了数据不平衡对模型性能的影响。通过使用多层感知机 (MLP)、长短期记忆网络 (LSTM) 和极限梯度提升 (XGBoost) 等不同架构,以及三个不同数据集和不同场景下的数据分布配置,我们证明了联邦模型在数据集较小的非主导客户上始终优于本地模型,在高度不平衡的数据场景中平均提高了 17.92% 的模型性能,然而对于数据更多的主导客户,联邦模型可能表现出较低的性能,因此需要针对这类客户提供特殊的激励以鼓励其参与。
Jan, 2024
本文首次对 SplitFed 的强韧性进行了实证分析,结果表明 SplitFed 在面对模型毒化攻击时降低精度的程度是 Federated Learning 的 1/5,这是由于 SplitFed 具有较小的维度和更高的抗攻击能力。
Dec, 2022
该研究分析了联邦学习中信任度评估的现有要求,提出了六个支柱(隐私、强壮性、公正性、可解释性、问责制和联邦)和 30 多个计算 FL 模型信任度水平的度量标准,并设计了一个算法 FederatedTrust,可以计算 FL 模型的信任度得分。通过在不同联邦配置下使用 FEMNIST 数据集进行的四个实验,展示了计算 FL 模型信任度的 FederatedTrust 的实用性。
Feb, 2023
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
分布式学习中的联邦学习存在安全和隐私挑战,本研究针对各类机器学习模型,包括大型语言模型,提出了安全和隐私挑战的综合分类,重点关注聚合器和参与者的攻击,包括投毒攻击、后门攻击、成员推断攻击、生成对抗网络攻击和差分隐私攻击,同时提出了未来研究的新方向,旨在强化联邦学习系统以应对新兴安全风险并保护分布式学习环境中的敏感数据隐私。
Jul, 2023
Federated Learning 新范式弥补了使用机器或深度学习模型时隐私泄漏的担忧。FedCC 通过比较 net 不同层的标准核对其表示,提供了强大的聚合。实验结果表明,它缓解了非定向和有目的的模型污染或后门攻击,并且在非独立同分布数据环境中也有效。
Dec, 2022