使用密钥锁模块的联邦学习梯度泄漏防御
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新(例如,本地梯度或权重更新向量)来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的FL协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
本文研究了如何使用差分隐私技术来保护联邦学习中的隐私和鲁棒性,评估了局部差分隐私(LDP)和中心差分隐私(CDP)技术的可行性和有效性。实验证明,这两个差分隐私技术都可以有效防止后门攻击,并且较其他鲁棒性防御更加有效。同时,差分隐私还可以减轻白盒成员推理攻击。然而,这两个技术都无法防御属性推理攻击。
Sep, 2020
本文针对联邦学习系统存在的隐私泄露问题,提出一种学习数据扰动来防止模型逆推攻击的防御策略,实验证明该方法在防御DLG 和 GS攻击的同时能够将数据重构误差提高160倍以上,有效提升联邦学习系统的隐私保护性能。
Dec, 2020
本文提出了一种采用基于训练样本的客户端差分隐私的梯度泄漏抗性隐私保护联邦学习方法Fed-CDP,旨在应对梯度泄露所带来的客户端隐私泄露问题的挑战。该方法在五个基准数据集上的实验结果显示,相比传统的Fed-SDP方法,Fed-CDP方法在抵御客户端梯度泄漏方面表现更好且性能可靠。
Jul, 2021
研究提出了混合精度量化FL方案作为反制措施,该方案可解决加密密钥的生成过程由于客户端数量增加而变得繁琐的难题,同时通过量化不同精度不同模式中深度模型的不同层,使该方案具有更多的鲁棒性,实证分析证明,应用量化后全局模型的准确性仅有轻微下降。
Oct, 2022
本文提出了一种梯度泄露弹性分布式随机梯度下降方法,并通过差分隐私噪声控制来保证隐私安全,实验分析表明,该方法在保障差分隐私安全、模型性能和抗梯度泄露攻击性能方面优于现有方法。
May, 2023
本研究解决了联邦学习中隐私攻击有效性的问题,尽管已有多种攻击算法,但是否能在现实环境中有效提取用户私密数据仍不确定。通过对相关文献的分析和在真实联邦学习环境中的实验,我们发现目前的隐私攻击算法在实际应用中难以突破用户数据隐私,这表明隐私攻击的难度超出预期。
Sep, 2024
本研究解决了联邦学习中梯度泄露的安全问题,提出了一种新颖的防护方法"AdaDefense"。该方法通过替代实际局部梯度进行全局聚合,有效防止信息泄露,并保持模型性能基本不变。研究结果显示,该方法在保证模型完整性的同时,增强了联邦学习的隐私保护能力。
Oct, 2024
本研究解决了联邦学习中的深度泄露攻击评估不足的问题,提出了FEDLAD框架,提供了一个全面的基准用于在现实场景下评估这些攻击及其防御策略。研究表明,在联邦学习中,隐私与模型准确性之间存在重要权衡,为理解分散式机器学习系统的安全挑战提供了新的视角。
Nov, 2024