FedTruth: 拜占庭容错和后门抵制的联邦学习框架
FLTrust 是一种新的联邦学习方法,它通过服务提供商收集干净的培训数据集来引导信任,对客户端的本地模型更新进行信任评分,并进行标准化处理,从而降低了来自恶意客户端的影响,最终计算加权平均并用于更新全局模型。
Dec, 2020
我们提出了一种名为 BALANCE 的新算法,通过本地相似性在去中心化中进行拜占庭 - 鲁棒的均值计算,以抵御毒化攻击,并在强凸和非凸设置中建立了 BALANCE 在毒化攻击下的理论收敛保证,大量实验证明 BALANCE 优于现有的分布式联邦学习方法并有效地抵御毒化攻击。
Jun, 2024
通过提出 InferGuard,一个新颖的拜占庭鲁棒聚合规则,我们的防御机制在保护客户端训练数据分布推断攻击方面表现出高度的有效性,甚至对于强适应性攻击也具有很强的防御能力,并在各种实际的联邦学习场景中显著优于基准方法。
Mar, 2024
本文提出了一种名为 BayBFed 的新型背门攻击防御框架,其利用客户端更新的概率分布来检测联邦学习中的恶意更新,并成功地在五个基准数据集上进行了广泛评估。
Jan, 2023
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
FLGuard 是一种新的拜占庭 - 鲁棒联邦学习方法,通过利用对比学习技术检测恶意客户端并丢弃恶意本地更新,设计 FLGuard 作为一种集成方案来最大化其防御能力,在各种中毒攻击下广泛评估 FLGuard,并与现有的拜占庭 - 鲁棒联邦学习方法的全局模型的准确性进行比较,在大多数情况下,FLGuard 优于现有的防御方法,并在非独立和标识分布设置下展现了巨大的改进。
Mar, 2024
本文介绍了一个理论分析及实验研究结果,关于联邦学习在提高隐私保护的同时,如何防止数据或梯度被恶意污染,通过提出反向工程防御方法,可以保证攻击成功率的减少,并提高对抗性的鲁棒性。
Oct, 2022
FedDefender 是针对联邦学习中针对性攻击的一种防御机制,通过差分测试来识别恶意客户端并减少攻击成功率 10%,同时不影响全局模型性能。
Jul, 2023
通过无需辅助服务器数据集并且不受落后节点限制的拜占庭容错和异步联邦学习算法,我们的解决方案可以更快地训练模型,在梯度反转攻击下最多能保持 1.54 倍准确率,而在扰动攻击下最多能保持 1.75 倍准确率。
Jun, 2024