如何后门联邦学习
本文研究联邦学习中的后门攻击及防御,探讨了如何在 EMNIST 数据集上实现防御策略,结论表明采用范数削弱和差分隐私能够有效减轻后门攻击带来的影响,同时开放代码以期鼓励更多研究者参与其中。
Nov, 2019
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案, 该方案通过调整聚合服务器的学习速率来达到目的, 在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
本文通过研究NLP模型中的稀有词嵌入,调查了后门攻击的模型毒化的可行性。在文本分类中,不到1%的对手客户端就足以操纵模型输出,而对于一个较简单的数据集,仅需0.1%的对手客户端就足以有效地污染全局模型。此外,我们还提出了一种针对联邦学习方案的技术——梯度集成,它提高了后门性能在我们的所有实验设置中表现出优越性。
Apr, 2022
在联邦学习中,我们提出了一种利用攻击者对未来其他客户端的行为,实现后门快速生效并且持续存在的攻击方法,该攻击方法适用于图像分类、下一个单词预测和情感分析等应用。
Oct, 2022
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
该文提出了一种基于机器遗忘的方法,使得攻击者可以有效地去除联邦学习中注入的后门,该方法在保证集中模型性能的同时,防止不相关信息的过度遗忘,并通过图像分类方案的全面评估证明了其在多种攻击情境下有效去除后门。
Apr, 2023
该研究提出了一种名为BadVFL的新型攻击方法,旨在向受害模型注入后门触发器,无需标签信息,并通过SDD模块和SDP模块实现了攻击的高攻击成功率,是一种有效的针对垂直联邦学习中潜在安全风险的方案。
Jun, 2023
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大,我们的方法通过生成具有新学习知识的图像,并通过评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的,实验结果表明,我们的方法可以抵御几乎所有现有类型的后门攻击,并在IID和non-IID场景下优于所有七种最先进的防御方法,尤其是在80%的恶意客户端存在时依旧能够成功抵御后门攻击。
Aug, 2023
DPOT是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
May, 2024