- ICML具有可证明的拜占庭鲁棒性的联邦共形预测
在分布式数据样本中,介绍了 Rob-FCP 框架用于对付具有恶意客户端的鲁棒联邦一致性预测,理论上证明了 Rob-FCP 的一致性覆盖界限,并展示了 Rob-FCP 在拜占庭场景下与期望覆盖水平渐近接近,同时提出了一个用于估计恶意客户端数量 - 处理疑虑:揭示联邦学习下梯度反转攻击的威胁模型,调查与分类
该研究论文介绍了一种关于 Gradient Inversion Attacks 的调查和分类法,强调了联邦学习威胁模型,特别是恶意服务器和客户端情况下的攻击方法和防御策略。
- TrustFed:一种具有恶意攻击抵抗能力的可靠联邦学习框架
提出了一种层次化审计的联邦学习(HiAudit-FL)框架,使用模型审计和参数审计两个阶段来增强学习过程的可靠性和安全性,并通过基于扩散模型的 AI-Enabled 审计选择策略(ASS)和深度强化学习(DRL)框架设计了高效的 DRL-A - FedBayes: 一种用于防御对抗攻击的零信任联邦学习聚合方法
使用贝叶斯统计的 FedBayes 方法可以抵消恶意用户对全局模型的影响,保护整个联邦系统。
- FedTruth: 拜占庭容错和后门抵制的联邦学习框架
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
- 鲁棒性和实时安全的无服务器协作学习
通过这项工作,我们提出了一种对抗恶意服务器、抵御恶意客户端的点对点学习方案,核心贡献是一个通用框架,使得兼容的模型更新聚合算法能够在服务器和客户端恶意行为的环境下运行。此外,我们展示了我们的方法在由数百个节点对标准数据集训练的百万参数模型上 - 基于零知识证明的联邦学习中的异常检测:踢出坏家伙!
该论文介绍了一种先进的异常检测方法,针对联邦学习系统中的恶意客户端进行攻击检测和防御操作,并借助零知识证明机制来确保服务器上诚实执行的性能优越性。
- 理解联邦学习中的对抗迁移
我们研究了一个新颖而实用的情境中的弹性和安全问题:一组恶意客户端通过伪装身份和表现为良性客户端,在训练期间对模型造成影响,并且在训练之后揭示他们的对手位置以进行可转移的对抗攻击,这些数据通常是 FL 系统训练时使用的数据子集。我们的目标是全 - 通过污染关键层实现后门联邦学习
提出了一种基于攻击者视角的泛指在位方法,用于识别和验证后门关键层,以及基于这些目标层谨慎制定新的后门攻击方法,在各种防御策略下平衡攻击效果和潜伏性。经过广泛实验证明,该方法能够成功地在 10% 恶意客户端的情况下攻击七种最新防御策略下的联邦 - 使用 FedGT 平衡联邦学习中的隐私和安全:一种分组测试框架
提出了 FedGT,一种检测联邦学习中恶意客户的新型架构,该架构通过利用客户的重叠组来检测恶意客户的存在并通过解码操作来识别它们。该架构在保护数据隐私的同时实现了提高检测能力和保障安全,通过在剩余客户上进行模型训练,成功地从中识别出带有低误 - FLCert:针对攻击的可证明安全的联邦学习
FLCert 是一种基于集成学习方法的联邦学习框架,对有限数量的恶意客户端攻击具有可证明的安全性,通过将客户端分组、使用现有联邦学习算法为每组客户端学习全局模型并在全局模型之间取多数投票来分类测试输入,成功地抵御有限数量的恶意客户端攻击。
- KDDFLDetector: 通过检测恶意客户端来防御模型投毒攻击的联合学习防护方案
FLDetector 是一种检测在联邦学习中恶意客户端的工具,它基于 Cauchy 均值定理和 L-BFGS 对客户端的历史模型更新进行预测,以检测其是否存在不一致性,该方法能够在多种最新的模型投毒攻击中准确检测到恶意客户端,并通过去除这些 - 连续训练下的联邦后门攻击防御
通过训练两个模型,其中一个不带任何防御机制,另一个结合恶意客户过滤和提前停止以控制攻击成功率,我们提出了防御联邦学习背门攻击的框架 ——“阴影学习”。该框架在理论上受到了证明,并且实验证明了它显著改善了现有的防御措施。
- AAAI针对恶意客户端的可证安全联邦学习
本文提出了一种使用集成学习做到在联邦学习中抵抗恶意攻击的方法,它使用多个模型进行多数表决确定预测结果,测试表明该方法可以在受到最多 20 个恶意客户端攻击时在 MNIST 数据集上获得 88%的可靠准确度。
- FLTrust: 通过信任引导实现拜占庭容错联邦学习
FLTrust 是一种新的联邦学习方法,它通过服务提供商收集干净的培训数据集来引导信任,对客户端的本地模型更新进行信任评分,并进行标准化处理,从而降低了来自恶意客户端的影响,最终计算加权平均并用于更新全局模型。
- 拜占庭韧性高维联邦学习
本文提出了一种在恶意 / 拜占庭客户端存在的情况下使用本地迭代的随机梯度下降(SGD)算法来解决联邦学习的问题,通过使用高维鲁棒均值估计算法来过滤出异常向量并得出收敛结果和分析。
- 针对鲁棒联邦学习的恶意客户检测学习
本文提出了一个新的框架,通过使用一个强大的检测模型,中央服务器可以学习来检测和移除恶意模型更新,从而实现有针对性的防御,以确保对拜占庭攻击和有针对性的模型毒化攻击具有鲁棒性的联合学习。