GI-SMN:无先验知识的反梯度逆转攻击对抗联邦学习
本文介绍了一种名为 TGIAs-RO 的新型 Gradient Inversion Attacks 攻击方式,采用多重时间梯度来恢复本地客户端保留的私有数据,能够有效克服瓶颈,提高重构性能和鲁棒性,同时启发了更多关于联邦学习中隐私保护方法的探索。
Jun, 2023
该研究论文介绍了一种关于 Gradient Inversion Attacks 的调查和分类法,强调了联邦学习威胁模型,特别是恶意服务器和客户端情况下的攻击方法和防御策略。
May, 2024
基于边缘检测的渐变反转策略 (Gradient Inversion Strategy based on Canny Edge Detection, MGIC) 在多标签和单标签数据集中减少了语义错误,并在 ImageNet 数据集上比最广泛使用的方法节省了超过 78% 的时间成本。
Mar, 2024
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
该研究提出了一种名为 Client-side poisoning Gradient Inversion (CGI) 的新攻击方法,旨在从聚合的全局模型中恢复训练样本,展示了在有限知识的客户端对聚合全局模型进行恶意操纵的可行性,并且具备对拜占庭 - 鲁棒聚合规则的隐蔽性。
Sep, 2023
我们研究了扩散模型在生成高分辨率图像数据方面的应用,使用基于梯度的协作训练方法,我们设计了一种融合优化模型(GIDM),以减小梯度反演攻击的风险,并进一步提出了三重优化模型(GIDM+)来解决隐私保护方面的挑战。通过广泛的评估结果,我们发现共享梯度对于扩散模型的数据保护存在漏洞,即使是高分辨率图像也可以被高质量地重建。
May, 2024
机器学习的广泛应用使得隐私问题变得尤为紧迫。本文提出了一种名为 Graph Model Inversion Attack (GraphMI) 的攻击方法,旨在通过反演目标模型中的 GNN,从而提取训练图的私有图数据。我们提出了投影梯度模块来解决图的离散性问题,并设计了图自编码器模块来高效利用图拓扑、节点属性和目标模型参数进行边缘推断。我们还展示了模型反演风险与边缘影响之间的联系,并在几个公共数据集上进行了广泛的实验以证明我们方法的有效性。此外,我们还表明最基本的差分隐私几乎无法保护我们的攻击同时保持良好的效用。
Jun, 2021
该研究提出了一种基于替代模型方法的梯度反演攻击权重更新的方法,从而更好地揭示了 Federated Learning 中预设的隐私保护固有的弱点,并展示了 SOTA 表现。
May, 2023
本文提出了一种名为 Gradient Inversion via Neural Architecture Search (GI-NAS) 的方法,通过自适应搜索网络和捕捉神经结构背后的隐含先验知识,进一步利用这种隐含先验知识来反转渐变并实施隐私数据重构攻击,实验证明 GI-NAS 相较最先进的渐变反转方法在更实际的设置下,包括高分辨率图像、大尺寸批次和高级防御策略下,可以实现更好的攻击性能。
May, 2024