联邦学习中的搭便车现象:攻击与防御
本文旨在介绍基于 FedAvg 或 FedProx 等迭代参数聚合的联邦学习方案中存在的免费骑客攻击,并提供了针对这些攻击的正式保证。研究表明,这种攻击可通过不更新本地参数实现,同时还介绍了更复杂的伪造方案。最后,提供了避免此类攻击的建议。
Jun, 2020
分散化数据源的联邦学习为学习提供隐私保护,但容易受到恶意客户干扰的模型中毒攻击,因此本文提出了一种名为 FedDefender 的新客户端防御机制,通过攻击容忍的本地元更新和攻击容忍的全局知识蒸馏两个组件,实现对联邦学习的模型中毒攻击的抵御和知识提取,从而提高其鲁棒性。
Jul, 2023
本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到 100%的准确率,并可通过对抗损失函数规避检测方法。
Jul, 2018
本文对联邦学习的隐私保护问题进行了广泛的研究和探讨,提出了对应的防御方法并对防御方法的选择提出了指导建议,研究得出了关于攻击和防御行为的进一步结论以及面临的挑战和经验教训。
Jan, 2022
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
本篇论文探讨了在联邦学习中的模型污染攻击,通过提出一种交替极小化策略和使用参数估计方法使恶意代理更容易成功攻击,同时提出利用可解释性技术生成模型决策的视觉解释,为联邦学习中的漏洞和防御策略提供了借鉴。
Nov, 2018
我们提出了一种新的技术来检测和缓解联邦学习系统中的数据注入攻击。我们的缓解方法是一个本地方案,在协调节点的单个训练实例中执行,允许在算法收敛时进行缓解。当怀疑一个代理是攻击者时,其数据将在一定时间内被忽略,此决策经常被重新评估。通过仿真实验表明,当协调节点检测到并隔离所有攻击者时,模型会恢复并收敛到可信模型。
Dec, 2023
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新 (例如,本地梯度或权重更新向量) 来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的 FL 协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
本文提出了一个新的框架,通过使用一个强大的检测模型,中央服务器可以学习来检测和移除恶意模型更新,从而实现有针对性的防御,以确保对拜占庭攻击和有针对性的模型毒化攻击具有鲁棒性的联合学习。
Feb, 2020