关于分割学习服务端后门攻击的可行性
本文探讨了 Split Learning 协作机器学习框架的安全性,揭示了其安全漏洞,并提出了攻击策略。通过不同的实验和测试,论文表明了对该协议的攻击能够打破最近提出的安全防御技术,从而获得客户的数据信息。
Dec, 2020
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
该研究探讨了在特征分区协作学习框架中的后门攻击和防御技术,研究表明甚至无标签的参与方也可以成功注入后门攻击,通过防御技术的组合可以有效阻止后门攻击且不降低主任务的准确性。
Jul, 2020
本文提出 SplitGuard 方法来检测分布式深度学习模型中的训练劫持攻击,以保障数据私密性的同时,最大化减少敏感信息恢复的风险。
Aug, 2021
本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到 100%的准确率,并可通过对抗损失函数规避检测方法。
Jul, 2018
本文提出了一种针对联邦学习中后门攻击的新方法:设计一种联邦修剪方法以消除网络中的冗余神经元并调整模型的极端权重值,在 Fashion-MNIST 和 CIFAR-10 等广泛使用的数据集上进行实验证明,该方法可以将平均攻击成功率从 99.7%降低到 1.9%,并只损失 5.5%的测试准确率。
Oct, 2020
本文针对隐私敏感的应用,提出了一种针对实际分割学习的被动聚类标签推断攻击,该攻击可以通过收集交换的梯度和压碎数据来精确检索私有标签,并使用余弦和欧几里得相似度度量来分析潜在的标签泄露。实验结果表明,即使对标签进行差分隐私和梯度压缩的保护,攻击者仍然可以在不同的设置下(例如,切割层位置,时代和批量大小)实现准确的预测。
Mar, 2022
本文提出一种利用联邦学习(FL)模型信息泄漏强化早期注入的单次后门攻击的方法,即在 FL 模型收敛时注入后门攻击。作者提出了一个两阶段后门攻击,通过预备阶段对本地数据进行分布推断攻击并基于推断结果制定本地数据集,以及在注入后门攻击时根据 FL 模型信息泄漏进行调整,提高攻击的持久性和成功率。在 MNIST 数据集上进行的广泛实验表明,该方法不仅能够绕过防御机制,而且在成功率和持久性方面都比现有的后门攻击更具优势。
Jul, 2022
本文旨在评估分片学习在抵御对抗攻击方面的鲁棒性,尤其是在非信任服务器只能访问模型的中间层时进行评估。通过提出一种定制的攻击方法 SPADV,证明了分片学习在面对对抗攻击时存在令人惊讶的脆弱性。
Jul, 2023