本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新 (例如,本地梯度或权重更新向量) 来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的 FL 协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
本文探讨了如何避免在联邦学习框架下,通过梯度信息泄露用户隐私的问题,并提出了一种名为生成梯度泄露的新型隐私泄露方法。作者为了解决这个问题,探讨了各种无梯度优化方法,并相对于梯度优化方法实现了更好的高质量图像重建效果。
Mar, 2022
本文提出了两个新的框架,证明在联合学习的情况下传输模型权重也可能会泄露客户端的本地数据,同时介绍了两种对抗措施和评估其保护效果。
Jun, 2022
本文提出采用贝叶斯差分隐私来增强联邦学习的形式化隐私保证,提出适用于联邦学习的贝叶斯隐私计算方法,并在图像分类任务上表现出明显的优势。
Nov, 2019
使用贝叶斯统计的 FedBayes 方法可以抵消恶意用户对全局模型的影响,保护整个联邦系统。
Dec, 2023
本文针对联邦学习系统存在的隐私泄露问题,提出一种学习数据扰动来防止模型逆推攻击的防御策略,实验证明该方法在防御 DLG 和 GS 攻击的同时能够将数据重构误差提高 160 倍以上,有效提升联邦学习系统的隐私保护性能。
Dec, 2020
提出一种基于博弈论的安全模型,考虑了联邦学习中的隐私泄漏问题和防御者与攻击者的策略问题,通过引入一个神谕作为协调者,优化参与者的收益和隐私泄漏风险。
Apr, 2023
本文提出针对联邦学习中的图像分类任务的新型数据重构攻击框架,并证明了通常采用的梯度后处理程序可能会给联邦学习中的数据隐私保护带来虚假的安全感。作者设计了一种基于语义级数据重构的新方法,并与传统的基于图像相似度分数的方法进行了比较。结果表明,需要重新审视和重新设计现有联邦学习算法中客户端数据隐私保护机制的重要性。
本文第一次探索了一种恶意攻击来破坏联邦学习中的用户级别隐私泄漏,并提出一种结合了 GAN 和多任务鉴别器的框架,该框架在客户端标识上具有新颖的识别,使生成器能够恢复用户指定的私有数据。
Dec, 2018
通过提出的 Bayesian Privacy 框架,本文的研究成功地量化了隐私损失,证明了其安全的隐私保护能力,通过各种深度神经网络图像分类 MNIST、CIFAR10 和 CIFAR100 的实验结果,演示了一种新的联邦深度学习方法,该方法使用私有通行证层,具有高模型性能、隐私保护能力和低计算复杂性的特点。
Sep, 2021