本文研究联邦学习中的后门攻击及防御,探讨了如何在 EMNIST 数据集上实现防御策略,结论表明采用范数削弱和差分隐私能够有效减轻后门攻击带来的影响,同时开放代码以期鼓励更多研究者参与其中。
Nov, 2019
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案, 该方案通过调整聚合服务器的学习速率来达到目的, 在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
本文介绍了一个理论分析及实验研究结果,关于联邦学习在提高隐私保护的同时,如何防止数据或梯度被恶意污染,通过提出反向工程防御方法,可以保证攻击成功率的减少,并提高对抗性的鲁棒性。
Oct, 2022
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
该文提出了一种基于机器遗忘的方法,使得攻击者可以有效地去除联邦学习中注入的后门,该方法在保证集中模型性能的同时,防止不相关信息的过度遗忘,并通过图像分类方案的全面评估证明了其在多种攻击情境下有效去除后门。
Apr, 2023
提出FedGrad作为一种新的反对联邦学习中背门攻击的防御机制,能够对边缘情况的背门攻击进行较好的防御,并且在不降低主任务精度的情况下最高可以准确检测到几乎100%的恶意参与者,从而显著降低背门效果,而且相比现有的防御机制,其表现出更好的性能。
本文提出了一个新的攻击模型,称为服务器上的数据不可知后门攻击(DABS),该模型旨在直接修改全局模型以在FL系统中放置后门。
May, 2023
FedDefender是针对联邦学习中针对性攻击的一种防御机制,通过差分测试来识别恶意客户端并减少攻击成功率10%,同时不影响全局模型性能。
Jul, 2023
FedTruth是一种针对FL中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
随着Federated Learning(FL)在分布式数据上进行隐私保护模型训练的潜力,但它仍然容易受到后门攻击的影响。本研究探讨了FL面临的一种更令人担忧的情况:非合作的多触发器攻击。这些并行攻击利用了FL的去中心化特性,使得检测变得困难。实验结果显示了FL对此类攻击的显著脆弱性,即使影响主任务,也可以成功学习到单独的后门。该研究强调在不断发展的FL领域中,需要对各种后门攻击进行强大的防御。
Jul, 2024