本文提出了防范联合学习中后门攻击的一个轻量级的防御方案,该方案通过调整聚合服务器的学习速率来达到目的,在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
本文提出一种新的方法 Neurotoxin, 用于对联邦学习系统中的后门攻击进行对抗,它可以攻击在训练过程中变化较小的参数,使得攻击可以更加持久。对十个自然语言处理和计算机视觉任务进行了全面评估,发现该方法可以使最新的后门攻击持久性提高两倍。
Jun, 2022
该文提出了一种基于机器遗忘的方法,使得攻击者可以有效地去除联邦学习中注入的后门,该方法在保证集中模型性能的同时,防止不相关信息的过度遗忘,并通过图像分类方案的全面评估证明了其在多种攻击情境下有效去除后门。
Apr, 2023
本文研究联邦学习中的后门攻击及防御,探讨了如何在 EMNIST 数据集上实现防御策略,结论表明采用范数削弱和差分隐私能够有效减轻后门攻击带来的影响,同时开放代码以期鼓励更多研究者参与其中。
Nov, 2019
通过训练两个模型,其中一个不带任何防御机制,另一个结合恶意客户过滤和提前停止以控制攻击成功率,我们提出了防御联邦学习背门攻击的框架 ——“阴影学习”。该框架在理论上受到了证明,并且实验证明了它显著改善了现有的防御措施。
May, 2022
本文介绍了一个理论分析及实验研究结果,关于联邦学习在提高隐私保护的同时,如何防止数据或梯度被恶意污染,通过提出反向工程防御方法,可以保证攻击成功率的减少,并提高对抗性的鲁棒性。
Oct, 2022
本文提出一种利用联邦学习(FL)模型信息泄漏强化早期注入的单次后门攻击的方法,即在 FL 模型收敛时注入后门攻击。作者提出了一个两阶段后门攻击,通过预备阶段对本地数据进行分布推断攻击并基于推断结果制定本地数据集,以及在注入后门攻击时根据 FL 模型信息泄漏进行调整,提高攻击的持久性和成功率。在 MNIST 数据集上进行的广泛实验表明,该方法不仅能够绕过防御机制,而且在成功率和持久性方面都比现有的后门攻击更具优势。
Jul, 2022
本文研究了联邦生成对抗网络(FedGANs)中后门攻击的问题,提出了一种高效的防御措施 ——FedDetect。在两个不同模态的医学数据集上进行了实验,表明后门攻击会导致低保真度合成图像,但使用 FedDetect 能够抵御此类攻击,以提高分類性能。
本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到 100%的准确率,并可通过对抗损失函数规避检测方法。
Jul, 2018