- 一种新的抵御联邦学习中毒攻击的方法:使用自编码器增强的 LayerCAM
本文提出了一种新颖的防御策略 LayerCAM-AE 来对抗联邦学习中的模型污染攻击,通过整合 Layer Class Activation Mapping(LayerCAM)和自编码器(AE),显著增强了检测能力,实验结果表明 Layer - FedTruth: 拜占庭容错和后门抵制的联邦学习框架
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
- ICML变色龙:适应点对点图片,为联邦学习种植耐久后门
本研究探讨了联邦学习系统中后门的耐久性和良性图片与中毒图片之间的关系,提出了一种基于对比学习的 Chameleon 攻击,能够极大地增加后门的耐久性。实验表明,Chameleon 攻击在各种图片数据集、后门类型和模型结构上都能将后门的寿命显 - 关于分割学习服务端后门攻击的可行性
本文通过在服务器端注入后门触发器,对分割学习中的后门攻击进行了新型研究,研究结果表明,尽管使用了强的模式和注入方法,但分割学习对于这种污染攻击是高度强大和抗性强的。
- 深谋远虑:预测他人行动在联邦学习中提升后门攻击
在联邦学习中,我们提出了一种利用攻击者对未来其他客户端的行为,实现后门快速生效并且持续存在的攻击方法,该攻击方法适用于图像分类、下一个单词预测和情感分析等应用。
- EMNLP罕见嵌入和梯度组件装的联邦学习后门攻击
本文通过研究 NLP 模型中的稀有词嵌入,调查了后门攻击的模型毒化的可行性。在文本分类中,不到 1% 的对手客户端就足以操纵模型输出,而对于一个较简单的数据集,仅需 0.1% 的对手客户端就足以有效地污染全局模型。此外,我们还提出了一种针对 - CVPR基于虚假客户端的联邦学习模型投毒攻击
本文提出了一种基于对抗造假客户端的模型毒化攻击(MPAF),在联邦学习系统中注入多个造假客户端向云服务器发送虚假的本地模型更新,将全局模型向具有低准确性的攻击者选定的基础模型方向倾斜,即使采用经典的防御和范数截断,MPAF 也可以显著降低全 - IJCAI攻击自适应聚合的鲁棒联邦学习
针对联邦学习存在的毒化模型和后门攻击等安全威胁,我们提出了一种基于注意力机制的神经网络攻击自适应的聚合策略。我们的方法可以在数据驱动的方式下,有效应对各种攻击,特别是对图像和文本数据集中的模型毒化和后门攻击的防御具有竞争力的表现。
- 你让我完整:神经代码自动补全中的漏洞注入
本文研究了基于神经语言模型的代码自动完成器的安全性,发现这种算法会受到数据干扰和模型干扰攻击,导致其在自动建议代码时存在风险,并分析了现有的防御方法的局限性。
- ICML透过对抗性的视角分析联邦学习
本篇论文探讨了在联邦学习中的模型污染攻击,通过提出一种交替极小化策略和使用参数估计方法使恶意代理更容易成功攻击,同时提出利用可解释性技术生成模型决策的视觉解释,为联邦学习中的漏洞和防御策略提供了借鉴。
- 联邦学习中减轻 Sybil 攻击的影响
本篇论文讨论了分布式多方数据上的机器学习及其所需的安全防护机制。提出了一种新的名为 FoolsGold 的分散式模型,它检测分布式学习过程中的客户端更新的多样性,并且比先前的防御机制更为健壮。
- 如何后门联邦学习
本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到 100%的准确率,并可通过对抗损失函数规避检测方法。