使用稳健的学习速率防御联邦学习中的后门
本文研究联邦学习中的后门攻击及防御,探讨了如何在 EMNIST 数据集上实现防御策略,结论表明采用范数削弱和差分隐私能够有效减轻后门攻击带来的影响,同时开放代码以期鼓励更多研究者参与其中。
Nov, 2019
通过训练两个模型,其中一个不带任何防御机制,另一个结合恶意客户过滤和提前停止以控制攻击成功率,我们提出了防御联邦学习背门攻击的框架——“阴影学习”。该框架在理论上受到了证明,并且实验证明了它显著改善了现有的防御措施。
May, 2022
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
本文研究了垂直联邦学习中的干扰攻击,提出了第一种干净标签后门攻击技术,并在三个数据集上验证了其有效性,研究了攻击成功的因素,并讨论了减轻其影响的对策。
Apr, 2023
提出FedGrad作为一种新的反对联邦学习中背门攻击的防御机制,能够对边缘情况的背门攻击进行较好的防御,并且在不降低主任务精度的情况下最高可以准确检测到几乎100%的恶意参与者,从而显著降低背门效果,而且相比现有的防御机制,其表现出更好的性能。
Apr, 2023
提出了一个灵活的联邦后门防御框架(Fedward),使用放大幅度稀疏化(AmGrad)和自适应OPTICS聚类(AutoOPTICS)以及自适应剪裁方法来确保在保留性能的同时消除对抗性后门攻击(FBA),实验结果表明Fedward可以取得很好的防御效果。
Jul, 2023
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大,我们的方法通过生成具有新学习知识的图像,并通过评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的,实验结果表明,我们的方法可以抵御几乎所有现有类型的后门攻击,并在IID和non-IID场景下优于所有七种最先进的防御方法,尤其是在80%的恶意客户端存在时依旧能够成功抵御后门攻击。
Aug, 2023
DPOT是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
May, 2024
随着Federated Learning(FL)在分布式数据上进行隐私保护模型训练的潜力,但它仍然容易受到后门攻击的影响。本研究探讨了FL面临的一种更令人担忧的情况:非合作的多触发器攻击。这些并行攻击利用了FL的去中心化特性,使得检测变得困难。实验结果显示了FL对此类攻击的显著脆弱性,即使影响主任务,也可以成功学习到单独的后门。该研究强调在不断发展的FL领域中,需要对各种后门攻击进行强大的防御。
Jul, 2024