联邦学习中的梯度泄漏
该研究论文介绍了一种关于 Gradient Inversion Attacks 的调查和分类法,强调了联邦学习威胁模型,特别是恶意服务器和客户端情况下的攻击方法和防御策略。
May, 2024
本文介绍了一种名为 TGIAs-RO 的新型 Gradient Inversion Attacks 攻击方式,采用多重时间梯度来恢复本地客户端保留的私有数据,能够有效克服瓶颈,提高重构性能和鲁棒性,同时启发了更多关于联邦学习中隐私保护方法的探索。
Jun, 2023
该研究提出了一种名为 Client-side poisoning Gradient Inversion (CGI) 的新攻击方法,旨在从聚合的全局模型中恢复训练样本,展示了在有限知识的客户端对聚合全局模型进行恶意操纵的可行性,并且具备对拜占庭 - 鲁棒聚合规则的隐蔽性。
Sep, 2023
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在 CIFAR-10 和 ImageNet 等图像基准上进行了实验,超过了现有的 GradInversion 技术。
Oct, 2021
本文针对联邦学习系统存在的隐私泄露问题,提出一种学习数据扰动来防止模型逆推攻击的防御策略,实验证明该方法在防御 DLG 和 GS 攻击的同时能够将数据重构误差提高 160 倍以上,有效提升联邦学习系统的隐私保护性能。
Dec, 2020
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新 (例如,本地梯度或权重更新向量) 来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的 FL 协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
本文研究了分布式学习中的数据重构攻击,并探讨了利用泄露数据进行模型训练和改进的可能性。研究表明,即使重构质量有限或泄露图像数量较少,也可以通过敌意训练模型更准确地使用泄露数据,对于下游训练而言,渐变反转攻击和线性层泄漏攻击存在一定的限制。
Mar, 2024
提出一种隐蔽标签推断攻击绕过安全聚合从而恢复个体客户的私有标签,并通过理论分析和实验证明该攻击可以在各种数据集和模型架构上以 100%的准确性实现大规模标签恢复。
Jun, 2024
通过利用预先训练的生成模型,本文探究了在缺乏先前知识的情况下可以从 Federated Learning 训练过程中看到的一系列梯度中学习先验知识的可能性。实验证明这种先验知识可以被轻易违反隐私,从而强烈建议在 FL 中需要采用额外的机制来防止隐私泄露。
Oct, 2021
深度梯度反转攻击是联邦学习中的一种严重威胁,然而,现有的方法在访问过多的辅助数据时违反了联邦学习的基本数据分割原则。本文提出了一种新的方法,Gradient Inversion Attack using Practical Image Prior (GI-PIP),通过修订的威胁模型进行梯度反转攻击。GI-PIP 利用异常检测模型从较少的数据中捕捉潜在的分布,而基于 GAN 的方法需要消耗大量数据来合成图像。所提取的分布然后被应用于调节攻击过程,作为异常分数损失。实验结果表明,只使用 ImageNet 数据的 3.8%,GI-PIP 实现了 16.12 dB 的 PSNR 恢复,而基于 GAN 的方法则需要超过 70% 的数据。此外,GI-PIP 在分布泛化方面表现出卓越的能力,相比基于 GAN 的方法。我们的方法显著减轻了对辅助数据的要求,对于梯度反转攻击来说,在数量和分布上都产生了更大的威胁于现实世界的联邦学习。
Jan, 2024