联邦扩散模型的梯度反演
本文研究联邦学习中参数梯度共享机制的安全性,并通过实证研究表明,在计算机视觉领域,即使对多个迭代或多个图像进行梯度平均处理,也无法保护用户隐私。
Mar, 2020
通过利用预先训练的生成模型,本文探究了在缺乏先前知识的情况下可以从 Federated Learning 训练过程中看到的一系列梯度中学习先验知识的可能性。实验证明这种先验知识可以被轻易违反隐私,从而强烈建议在FL中需要采用额外的机制来防止隐私泄露。
Oct, 2021
本文探究了几个神经网络设计决策如何防御梯度反演攻击,提出重叠梯度可以在高度易受攻击的全连接层上提供数值抵抗,并通过合适的损失函数和相同标签的批处理最大程度地混合梯度,从而避免了数据泄露的风险,并提出了一个基于绝对变异距离的信息泄露连续统计,最终通过经验结果验证所提出的防御策略对信息恢复有一定的应用。
Apr, 2022
本文提出针对联邦学习中的图像分类任务的新型数据重构攻击框架,并证明了通常采用的梯度后处理程序可能会给联邦学习中的数据隐私保护带来虚假的安全感。作者设计了一种基于语义级数据重构的新方法,并与传统的基于图像相似度分数的方法进行了比较。结果表明,需要重新审视和重新设计现有联邦学习算法中客户端数据隐私保护机制的重要性。
Jun, 2022
本文介绍了一种名为 TGIAs-RO 的新型 Gradient Inversion Attacks 攻击方式,采用多重时间梯度来恢复本地客户端保留的私有数据,能够有效克服瓶颈,提高重构性能和鲁棒性,同时启发了更多关于联邦学习中隐私保护方法的探索。
Jun, 2023
在此篇文章中,我们提出了一种为私有扩散模型优化参数效率的微调策略,通过减少可训练参数的数量来增强隐私-效用平衡,从而在DP合成方面取得了最先进的性能,在广泛研究的数据集上明显超过了先前的基准(如CelebA-64数据集上的小隐私预算下,仅有0.47M个可训练参数,在先前最先进结果上实现了超过35%的改进)。
Jun, 2024
通过扩散模型并利用梯度指导的微调方法,我们提出了一种新的重建攻击方法,可通过泄露的梯度从图像处理系统中窃取私密的高分辨率图像。实验结果表明,我们的攻击方法能够成功恢复和窃取分辨率高达512 x 512像素的图像。此外,我们的攻击方法在图像重建的像素级准确性和时间效率方面明显优于其他攻击基准方法,并在一定程度上使差分隐私失效。
Jun, 2024
最近几年针对分布式学习(FL)中的梯度泄漏攻击的脆弱性日益加剧,该攻击可通过交换的梯度恢复私有训练数据,使得梯度保护成为FL训练过程中至关重要的问题。然而,现有的解决方案通常依赖于扰动机制,如差分隐私,其中每个参与的客户端在聚合到服务器之前向局部梯度注入特定量的噪音,全局分布变化最终隐藏了梯度隐私。然而,扰动并不总是梯度保护的万灵药,因为其鲁棒性严重依赖于注入的噪音。本文回答了一个有趣的问题:“是否可能通过移除梯度中的扰动来使现有的保护机制失效?”我们提出了应答:“是”,并提出了Perturbation-resilient Gradient Leakage Attack(PGLA)——首次尝试在没有额外访问原始模型结构或第三方数据的情况下恢复扰动梯度。具体而言,我们利用梯度扰动保护的内在扩散特性构建了一种新颖的基于扩散的降噪模型来实现PGLA。我们的研究认为,在扩散反向过程中捕捉扰动量的干扰水平可以释放梯度去噪的能力,通过自适应采样步骤促使扩散模型生成与原始干净版本相似的梯度。大量实验证明,PGLA能够有效恢复受保护的梯度,暴露FL训练过程受梯度泄漏的威胁,并与现有模型相比实现了最佳的梯度去噪和数据恢复质量。我们希望引起公众对PGLA及其防御的关注。
Jul, 2024
本研究针对分布式学习中的用户级梯度反演作为一种新攻击方式,填补现有方法在重建训练数据之外推断私人信息的能力不足的空白。我们提出了一种新的梯度反演攻击方法,采用去噪扩散模型作为强图像先验,以提高大批量设置下的恢复效果。实验表明,该方法能够有效恢复逼真的面部图像及其私人用户属性,具有重要的潜在影响。
Sep, 2024
本研究针对当前梯度重建方法在高分辨率图像重建中存在的计算复杂性和先验知识需求问题,提出了两种创新方法,最小化对扩散模型生成过程的修改,无需先验知识。研究还系统分析了差分隐私噪声对重建图像质量的影响,并通过广泛实验验证了所提方法的有效性,开辟了使用条件扩散模型进行隐私风险审计的新方向。
Nov, 2024