本篇论文探讨了联邦学习的自由骑手攻击问题,并提出了一种新的高维异常检测方法STD-DAGMM用于检测这种攻击。
Nov, 2019
这项研究介绍了一种基于最小但恶意修改的共享模型架构的新威胁模型,使服务器能够直接从梯度更新中获取用户数据的逐字副本,即使是在大批量情况下的用户数据也能被这些略有修改的模型重构。
Oct, 2021
本研究提出了一种新的基于分布式差分隐私的隐私保护联合学习方法,其可以有效避免联合攻击,以及“Sybil”攻击,并给出了相应的安全性证明。在模拟的 5000 个分布式网络客户端上的实验结果表明,该协议执行速度快,学习准确率高,且具有良好的隐私保护性能。
Feb, 2022
在联邦学习中,通过攻击聚合更新的方法进行数据泄漏,而过去的工作都将聚合更新视为一个更大的batch,由此导致了一定的资源开销。该研究提出了从多个单独的更新数据中攻击聚合数据的角度,并引入了稀疏性的概念,以减少模型大小和计算时间的开销以及维持77%的泄漏率。
Mar, 2023
分散化数据源的联邦学习为学习提供隐私保护,但容易受到恶意客户干扰的模型中毒攻击,因此本文提出了一种名为FedDefender的新客户端防御机制,通过攻击容忍的本地元更新和攻击容忍的全局知识蒸馏两个组件,实现对联邦学习的模型中毒攻击的抵御和知识提取,从而提高其鲁棒性。
Jul, 2023
该综述论文对恶意攻击的联邦学习进行了全面的研究,从攻击来源和目标的新视角进行分类,并深入剖析了其方法和影响。文章对以数据攻击模型、模型攻击数据、模型与模型攻击以及复合攻击为类型的威胁模型进行了讨论,并提出了各种防御策略及其效果、假设和潜在改进方向。作者研究表明,在联邦学习系统的不同阶段,可操纵的学习数据、学习梯度和学习模型的恶意攻击日益增多,其影响范围涵盖了破坏模型性能、重构本地私有数据和注入后门等。此文献综述全面了解当前联邦学习威胁形势,并强调了开发稳健、高效和保护隐私的防御措施对于确保联邦学习在实际应用中的安全与可信采纳的重要性。
Nov, 2023
使用贝叶斯统计的FedBayes方法可以抵消恶意用户对全局模型的影响,保护整个联邦系统。
Dec, 2023
本文旨在构建一个隐私保护、拜占庭强健的联邦学习方案,提供一个无破坏者环境,以保护数据隐私并排除恶意攻击者。我们通过构建模型过滤器、采用零知识证明提供进一步的隐私保护、采用秘密共享提供可验证的安全聚合,证明了NoV能有效应对包括PGD在内的数据和模型污染攻击,并超越其他相关方案。
Jun, 2024
Venomancer是一种有效的后门攻击方法,具有不可察觉性和按需目标功能,通过使用视觉损失函数,使毒数据在视觉上与原始数据无法区分,同时能够通过条件对抗训练选择任意目标类别。
Jul, 2024
本研究解决了联邦学习中隐私攻击有效性的问题,尽管已有多种攻击算法,但是否能在现实环境中有效提取用户私密数据仍不确定。通过对相关文献的分析和在真实联邦学习环境中的实验,我们发现目前的隐私攻击算法在实际应用中难以突破用户数据隐私,这表明隐私攻击的难度超出预期。
Sep, 2024