FLIP:联邦学习中后门缓解的可证明防御框架
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案,该方案通过调整聚合服务器的学习速率来达到目的,在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
本文针对联邦学习系统存在的隐私泄露问题,提出一种学习数据扰动来防止模型逆推攻击的防御策略,实验证明该方法在防御 DLG 和 GS 攻击的同时能够将数据重构误差提高 160 倍以上,有效提升联邦学习系统的隐私保护性能。
Dec, 2020
本论文提供了第一个通用框架,Certifiably Robust Federated Learning (CRFL),用于训练具备抗击后门攻击认证的 FL 模型。该方法利用模型参数的裁剪和平滑来控制全局模型的平稳性,从而获得针对有限大小的后门的逐样本鲁棒性认证。同时,该认证还指明了联邦学习参数(如单个实例的攻击者比例,攻击者数量和训练迭代次数)之间的关系。
Jun, 2021
FedDefender 是针对联邦学习中针对性攻击的一种防御机制,通过差分测试来识别恶意客户端并减少攻击成功率 10%,同时不影响全局模型性能。
Jul, 2023
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
在个性化联合学习场景中,本文首次研究了后门攻击,并发现部分模型共享的个性化联合学习方法仍然容易受到后门攻击的威胁,提出了三种后门攻击方法,并实验证明这些方法对两种经典个性化联合学习方法的有效性。同时,本文还评估了多种防御策略对这些攻击的有效性,发现梯度范数剪辑策略特别有效。最后,本文呼吁对个性化联合学习场景中的攻击和防御进行进一步研究。
Jul, 2023
FLAME is a defense framework for Federated Learning that minimizes the required amount of noise by using model clustering and weight clipping to ensure the benign performance of the aggregated model while effectively eliminating adversarial backdoors.
Jan, 2021