通过梯度放大在大批量联邦学习中收集用户数据
这项研究介绍了一种基于最小但恶意修改的共享模型架构的新威胁模型,使服务器能够直接从梯度更新中获取用户数据的逐字副本,即使是在大批量情况下的用户数据也能被这些略有修改的模型重构。
Oct, 2021
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在 CIFAR-10 和 ImageNet 等图像基准上进行了实验,超过了现有的 GradInversion 技术。
Oct, 2021
提出了一种攻击机制可在 Federated Learning 中,通过恶意参数向量直接攻击文本应用程序,利用 Transformer 架构和标记嵌入技术提取标记和位置嵌入来检索高保真文本,使得历史上抵抗隐私攻击的文本 Federated Learning 变得比以前更加脆弱。
Jan, 2022
本文提出了一种使用最先进的安全模块进行安全和高效的垂直联邦学习的新方法,与同态加密(HE)相比,该方法提供了 9.1e2〜3.8e4 的加速,同时不影响训练性能。
May, 2023
本文针对联邦学习系统存在的隐私泄露问题,提出一种学习数据扰动来防止模型逆推攻击的防御策略,实验证明该方法在防御 DLG 和 GS 攻击的同时能够将数据重构误差提高 160 倍以上,有效提升联邦学习系统的隐私保护性能。
Dec, 2020
本文介绍了联邦学习(FL)系统,探讨了通过个人设备(例如智能手机)收集的大规模用户数据进行机器学习(ML)模型的训练,以及其匿名用户设备共享训练信息的核心部分,还讨论了利用数据混合等手段防范匿名化攻击。
May, 2018
通过聚合模型更新,掌握联邦学习中的用户隐私信息可能存在风险,破坏了联邦学习的数据安全,研究展示了一种攻击方法,通过聚合的模型更新重建用户和其私有训练数据之间的联系,属于一种细致入微、平行操作并具有较高灵敏度的推断攻击。
Jun, 2021
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新 (例如,本地梯度或权重更新向量) 来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的 FL 协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020