梯度泄露鲁棒联邦学习
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新(例如,本地梯度或权重更新向量)来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的FL协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
本文研究了如何使用差分隐私技术来保护联邦学习中的隐私和鲁棒性,评估了局部差分隐私(LDP)和中心差分隐私(CDP)技术的可行性和有效性。实验证明,这两个差分隐私技术都可以有效防止后门攻击,并且较其他鲁棒性防御更加有效。同时,差分隐私还可以减轻白盒成员推理攻击。然而,这两个技术都无法防御属性推理攻击。
Sep, 2020
本文提出了一种梯度泄露弹性分布式随机梯度下降方法,并通过差分隐私噪声控制来保证隐私安全,实验分析表明,该方法在保障差分隐私安全、模型性能和抗梯度泄露攻击性能方面优于现有方法。
May, 2023
提出了一种具有差分隐私保证的通信高效的联邦学习训练算法,采用二进制神经网络 (BNNs) 并引入离散噪声以实现客户级别的隐私保护。通过实验证明,该算法在保证隐私的同时,实现了较低的通信开销和性能提升。
Aug, 2023
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024
本研究针对联邦学习中隐私保护不足的问题展开,探讨了现有对于噪声联邦差分隐私分析的局限性。通过引入 f-DP 分析方法,论文证明了 Noisy-FedAvg 方法在隐私保护中的收敛下界,以及 Noisy-FedProx 方法的稳定隐私下界,为联邦学习的隐私保护提供了理论支持,并可推广应用至其他差分隐私分析框架。
Aug, 2024
本研究解决了联邦学习中隐私攻击有效性的问题,尽管已有多种攻击算法,但是否能在现实环境中有效提取用户私密数据仍不确定。通过对相关文献的分析和在真实联邦学习环境中的实验,我们发现目前的隐私攻击算法在实际应用中难以突破用户数据隐私,这表明隐私攻击的难度超出预期。
Sep, 2024
本研究解决了联邦学习中梯度泄露的安全问题,提出了一种新颖的防护方法"AdaDefense"。该方法通过替代实际局部梯度进行全局聚合,有效防止信息泄露,并保持模型性能基本不变。研究结果显示,该方法在保证模型完整性的同时,增强了联邦学习的隐私保护能力。
Oct, 2024