本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
本文提出了一种针对联邦学习中后门攻击的新方法:设计一种联邦修剪方法以消除网络中的冗余神经元并调整模型的极端权重值,在 Fashion-MNIST 和 CIFAR-10 等广泛使用的数据集上进行实验证明,该方法可以将平均攻击成功率从 99.7%降低到 1.9%,并只损失 5.5%的测试准确率。
Oct, 2020
本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到 100%的准确率,并可通过对抗损失函数规避检测方法。
Jul, 2018
通过理论分析和实验,研究在分布式机器学习领域,如何有效检测和保护模型免受恶意注入的后门影响。
Jul, 2020
该研究探讨了在特征分区协作学习框架中的后门攻击和防御技术,研究表明甚至无标签的参与方也可以成功注入后门攻击,通过防御技术的组合可以有效阻止后门攻击且不降低主任务的准确性。
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案,该方案通过调整聚合服务器的学习速率来达到目的,在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
FedDefender 是针对联邦学习中针对性攻击的一种防御机制,通过差分测试来识别恶意客户端并减少攻击成功率 10%,同时不影响全局模型性能。
Jul, 2023
在联邦学习中,我们提出了一种利用攻击者对未来其他客户端的行为,实现后门快速生效并且持续存在的攻击方法,该攻击方法适用于图像分类、下一个单词预测和情感分析等应用。
Oct, 2022
本文通过研究 NLP 模型中的稀有词嵌入,调查了后门攻击的模型毒化的可行性。在文本分类中,不到 1% 的对手客户端就足以操纵模型输出,而对于一个较简单的数据集,仅需 0.1% 的对手客户端就足以有效地污染全局模型。此外,我们还提出了一种针对联邦学习方案的技术 —— 梯度集成,它提高了后门性能在我们的所有实验设置中表现出优越性。
Apr, 2022
通过控制数据隐私并引入一种新类型的攻击,本论文讨论了在分布式训练中实现公平性的重要性以及对公平性进行攻击的方式。
Nov, 2023