毒蛇人:面向联邦学习中寻求隐形和按需目标的后门攻击
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案, 该方案通过调整聚合服务器的学习速率来达到目的, 在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
本文提出了一种基于反馈的联邦学习防御方法(BAFFLE)来解决联邦学习中受污染模型的后门攻击问题,并将多个客户机器的数据集合并以检测可能存在的污染,结果表明该方案可以在对CIFAR-10和FEMNIST数据集进行实证评估时检测到最先进的后门攻击,检测准确率达到100%,误报率低于5%。
Nov, 2020
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
提出FedGrad作为一种新的反对联邦学习中背门攻击的防御机制,能够对边缘情况的背门攻击进行较好的防御,并且在不降低主任务精度的情况下最高可以准确检测到几乎100%的恶意参与者,从而显著降低背门效果,而且相比现有的防御机制,其表现出更好的性能。
Apr, 2023
FedDefender是针对联邦学习中针对性攻击的一种防御机制,通过差分测试来识别恶意客户端并减少攻击成功率10%,同时不影响全局模型性能。
Jul, 2023
分散化数据源的联邦学习为学习提供隐私保护,但容易受到恶意客户干扰的模型中毒攻击,因此本文提出了一种名为FedDefender的新客户端防御机制,通过攻击容忍的本地元更新和攻击容忍的全局知识蒸馏两个组件,实现对联邦学习的模型中毒攻击的抵御和知识提取,从而提高其鲁棒性。
Jul, 2023
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大,我们的方法通过生成具有新学习知识的图像,并通过评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的,实验结果表明,我们的方法可以抵御几乎所有现有类型的后门攻击,并在IID和non-IID场景下优于所有七种最先进的防御方法,尤其是在80%的恶意客户端存在时依旧能够成功抵御后门攻击。
Aug, 2023
DPOT是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
May, 2024
随着Federated Learning(FL)在分布式数据上进行隐私保护模型训练的潜力,但它仍然容易受到后门攻击的影响。本研究探讨了FL面临的一种更令人担忧的情况:非合作的多触发器攻击。这些并行攻击利用了FL的去中心化特性,使得检测变得困难。实验结果显示了FL对此类攻击的显著脆弱性,即使影响主任务,也可以成功学习到单独的后门。该研究强调在不断发展的FL领域中,需要对各种后门攻击进行强大的防御。
Jul, 2024