Dim-Krum:基于 Krum 的分维聚合的 NLP 后门抵抗联邦学习
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案,该方案通过调整聚合服务器的学习速率来达到目的,在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
本文研究联邦学习中的后门攻击及防御,探讨了如何在 EMNIST 数据集上实现防御策略,结论表明采用范数削弱和差分隐私能够有效减轻后门攻击带来的影响,同时开放代码以期鼓励更多研究者参与其中。
Nov, 2019
针对联邦学习存在的毒化模型和后门攻击等安全威胁,我们提出了一种基于注意力机制的神经网络攻击自适应的聚合策略。我们的方法可以在数据驱动的方式下,有效应对各种攻击,特别是对图像和文本数据集中的模型毒化和后门攻击的防御具有竞争力的表现。
Feb, 2021
本文提出了一种针对联邦学习中后门攻击的新方法:设计一种联邦修剪方法以消除网络中的冗余神经元并调整模型的极端权重值,在 Fashion-MNIST 和 CIFAR-10 等广泛使用的数据集上进行实验证明,该方法可以将平均攻击成功率从 99.7%降低到 1.9%,并只损失 5.5%的测试准确率。
Oct, 2020
本文通过研究 NLP 模型中的稀有词嵌入,调查了后门攻击的模型毒化的可行性。在文本分类中,不到 1% 的对手客户端就足以操纵模型输出,而对于一个较简单的数据集,仅需 0.1% 的对手客户端就足以有效地污染全局模型。此外,我们还提出了一种针对联邦学习方案的技术 —— 梯度集成,它提高了后门性能在我们的所有实验设置中表现出优越性。
Apr, 2022
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
该研究探讨了在特征分区协作学习框架中的后门攻击和防御技术,研究表明甚至无标签的参与方也可以成功注入后门攻击,通过防御技术的组合可以有效阻止后门攻击且不降低主任务的准确性。
Jul, 2020
本文提出一种利用联邦学习(FL)模型信息泄漏强化早期注入的单次后门攻击的方法,即在 FL 模型收敛时注入后门攻击。作者提出了一个两阶段后门攻击,通过预备阶段对本地数据进行分布推断攻击并基于推断结果制定本地数据集,以及在注入后门攻击时根据 FL 模型信息泄漏进行调整,提高攻击的持久性和成功率。在 MNIST 数据集上进行的广泛实验表明,该方法不仅能够绕过防御机制,而且在成功率和持久性方面都比现有的后门攻击更具优势。
Jul, 2022
FLAME is a defense framework for Federated Learning that minimizes the required amount of noise by using model clustering and weight clipping to ensure the benign performance of the aggregated model while effectively eliminating adversarial backdoors.
Jan, 2021