FLTrust: 通过信任引导实现拜占庭容错联邦学习
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
我们提出了一种名为 BALANCE 的新算法,通过本地相似性在去中心化中进行拜占庭 - 鲁棒的均值计算,以抵御毒化攻击,并在强凸和非凸设置中建立了 BALANCE 在毒化攻击下的理论收敛保证,大量实验证明 BALANCE 优于现有的分布式联邦学习方法并有效地抵御毒化攻击。
Jun, 2024
FLGuard 是一种新的拜占庭 - 鲁棒联邦学习方法,通过利用对比学习技术检测恶意客户端并丢弃恶意本地更新,设计 FLGuard 作为一种集成方案来最大化其防御能力,在各种中毒攻击下广泛评估 FLGuard,并与现有的拜占庭 - 鲁棒联邦学习方法的全局模型的准确性进行比较,在大多数情况下,FLGuard 优于现有的防御方法,并在非独立和标识分布设置下展现了巨大的改进。
Mar, 2024
基于区块链的拜占庭 - 稳健联邦学习 (BRLF) 模型通过与区块链技术的结合,解决了联邦学习中的资源消耗问题,并在公共数据集上验证了我们安全聚合算法相对于其他基线算法在抗拜占庭攻击方面的优越性,证明了我们提出的模型的有效性。
Oct, 2023
提出了一种名为 BRIEF 的新型拜占庭 - 鲁棒和保障隐私的联邦学习系统,该系统旨在捕捉服务器和客户端上的恶意少数和多数,并通过基于 DBSCAN 算法的新型聚类方法和模型分割算法,以及多种密码工具来对抗恶意大多数攻击,同时保持更新机密性和训练正确性,经详细的安全性证明和实证评估,取得了实践上接近基线的测试准确率(平均为 0.8% 的差距),并且攻击成功率约为 0-5%,其设计还可最大程度地减少通信开销和运行时间。
Aug, 2022
通过无需辅助服务器数据集并且不受落后节点限制的拜占庭容错和异步联邦学习算法,我们的解决方案可以更快地训练模型,在梯度反转攻击下最多能保持 1.54 倍准确率,而在扰动攻击下最多能保持 1.75 倍准确率。
Jun, 2024
本文提出了一种使用集成学习做到在联邦学习中抵抗恶意攻击的方法,它使用多个模型进行多数表决确定预测结果,测试表明该方法可以在受到最多 20 个恶意客户端攻击时在 MNIST 数据集上获得 88%的可靠准确度。
Feb, 2021
本文提出了一种强大的聚合方法,用于联邦学习,可以有效地应对恶意拜占庭攻击,每个用户可以通过多个步骤来更新模型参数,然后将其直接推送到聚合中心,聚合中心利用几何中位数将用户的模型参数进行组合,并通过严格的证明表明,只要恶意攻击者的比例低于一半,我们提出的方法可以达到零最优间隔,并呈线性收敛性。数值结果验证了我们提出方法的有效性。
Aug, 2023
本文提出了首个单服务器拜占庭容错安全的聚合框架(BREA)用于安全联邦学习,包括完整的隐私保护和网络收敛保证,基于综合随机量化、可验证的异常检测和安全的模型聚合方法,并对网络规模、用户退化和隐私保护方面进行了理论和实验分析。
Jul, 2020
该研究分析了联邦学习中信任度评估的现有要求,提出了六个支柱(隐私、强壮性、公正性、可解释性、问责制和联邦)和 30 多个计算 FL 模型信任度水平的度量标准,并设计了一个算法 FederatedTrust,可以计算 FL 模型的信任度得分。通过在不同联邦配置下使用 FEMNIST 数据集进行的四个实验,展示了计算 FL 模型信任度的 FederatedTrust 的实用性。
Feb, 2023