从表示的角度可证明抵御联邦学习中的隐私泄露
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新(例如,本地梯度或权重更新向量)来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的FL协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
本文研究了如何使用差分隐私技术来保护联邦学习中的隐私和鲁棒性,评估了局部差分隐私(LDP)和中心差分隐私(CDP)技术的可行性和有效性。实验证明,这两个差分隐私技术都可以有效防止后门攻击,并且较其他鲁棒性防御更加有效。同时,差分隐私还可以减轻白盒成员推理攻击。然而,这两个技术都无法防御属性推理攻击。
Sep, 2020
本文提出了一个称为RecUP-FL的可配置隐私防御方案,它更好地关注用户指定的敏感属性,同时显著提高了传统防御所需的模型效用,在各种对抗情景下有效防御属性推理攻击和数据重建攻击。
Apr, 2023
本研究针对联邦学习(FL)中数据重建攻击的理论基础缺失问题,提出了一个理论框架以理解数据重建攻击。该框架通过界定数据重建误差来比较不同攻击的有效性,研究发现iDLG攻击在多个数据集上的表现优于DLG攻击,揭示了联邦学习中的潜在攻击风险。
Aug, 2024
本研究针对联邦学习中隐私保护不足的问题展开,探讨了现有对于噪声联邦差分隐私分析的局限性。通过引入 f-DP 分析方法,论文证明了 Noisy-FedAvg 方法在隐私保护中的收敛下界,以及 Noisy-FedProx 方法的稳定隐私下界,为联邦学习的隐私保护提供了理论支持,并可推广应用至其他差分隐私分析框架。
Aug, 2024
本研究解决了联邦学习中隐私攻击有效性的问题,尽管已有多种攻击算法,但是否能在现实环境中有效提取用户私密数据仍不确定。通过对相关文献的分析和在真实联邦学习环境中的实验,我们发现目前的隐私攻击算法在实际应用中难以突破用户数据隐私,这表明隐私攻击的难度超出预期。
Sep, 2024
本研究解决了联邦学习中梯度泄露的安全问题,提出了一种新颖的防护方法"AdaDefense"。该方法通过替代实际局部梯度进行全局聚合,有效防止信息泄露,并保持模型性能基本不变。研究结果显示,该方法在保证模型完整性的同时,增强了联邦学习的隐私保护能力。
Oct, 2024