SkyMask:具有细粒度可学习遮罩的攻击无关健壮联邦学习
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
提出了一种层次化审计的联邦学习(HiAudit-FL)框架,使用模型审计和参数审计两个阶段来增强学习过程的可靠性和安全性,并通过基于扩散模型的 AI-Enabled 审计选择策略(ASS)和深度强化学习(DRL)框架设计了高效的 DRL-ASS 算法来识别和处理潜在的恶意用户。
Dec, 2023
DeltaMask 是一种新颖的方法,通过使用随机掩蔽检测基金会模型中的高效子网络,并利用客户端掩蔽的随机性和稀疏性,使用概率滤波器将更新压缩成紧凑的灰度图像,在超低比特率下有效地微调基金会模型,极大地提升通信效率,同时保持模型性能。
Nov, 2023
FLGuard 是一种新的拜占庭 - 鲁棒联邦学习方法,通过利用对比学习技术检测恶意客户端并丢弃恶意本地更新,设计 FLGuard 作为一种集成方案来最大化其防御能力,在各种中毒攻击下广泛评估 FLGuard,并与现有的拜占庭 - 鲁棒联邦学习方法的全局模型的准确性进行比较,在大多数情况下,FLGuard 优于现有的防御方法,并在非独立和标识分布设置下展现了巨大的改进。
Mar, 2024
本文介绍了一个理论分析及实验研究结果,关于联邦学习在提高隐私保护的同时,如何防止数据或梯度被恶意污染,通过提出反向工程防御方法,可以保证攻击成功率的减少,并提高对抗性的鲁棒性。
Oct, 2022
本文提出了一种基于梯度遮蔽平均的联邦学习方法,该方法通过学习恒定的不变机制来忽略异构性数据中不同的机制,避免因为主导客户端的偏见导致的信息损失和泛化性能不佳,实验证明该方法在非独立同分布数据集上提供了一致的改进。
Jan, 2022
该综述论文对恶意攻击的联邦学习进行了全面的研究,从攻击来源和目标的新视角进行分类,并深入剖析了其方法和影响。文章对以数据攻击模型、模型攻击数据、模型与模型攻击以及复合攻击为类型的威胁模型进行了讨论,并提出了各种防御策略及其效果、假设和潜在改进方向。作者研究表明,在联邦学习系统的不同阶段,可操纵的学习数据、学习梯度和学习模型的恶意攻击日益增多,其影响范围涵盖了破坏模型性能、重构本地私有数据和注入后门等。此文献综述全面了解当前联邦学习威胁形势,并强调了开发稳健、高效和保护隐私的防御措施对于确保联邦学习在实际应用中的安全与可信采纳的重要性。
Nov, 2023
通过提出 InferGuard,一个新颖的拜占庭鲁棒聚合规则,我们的防御机制在保护客户端训练数据分布推断攻击方面表现出高度的有效性,甚至对于强适应性攻击也具有很强的防御能力,并在各种实际的联邦学习场景中显著优于基准方法。
Mar, 2024
本论文提出一种名为 FedSpa 的新型 PFL 方案,它采用个性化稀疏掩码来在边缘上自定义稀疏的本地模型,理论和实验表明,FedSpa 不仅节省了通信和计算成本,而且在模型准确性和收敛速度方面表现优异。
Jan, 2022