The deep leakage from gradient (DLG) attack has emerged as a prevalent and
highly effective method for extracting sensitive training data by inspecting
exchanged gradients. This approach poses a substantial threat to the privacy of
individuals and organizations alike. This research pre
该研究首次针对 Transformer 的语言模型提出了梯度攻击问题,并提出了一个梯度攻击算法(TAG),该算法在 reconstructing training data 方面的效率得到了较大提高,表现出在 CoLA 数据集上攻击梯度,可以获得高达 90% 的数据,并且在大型模型、小型字典大小和小输入长度上具有更强的对手优势,旨在为 Transformer 的 NLP 模型中的隐私泄漏问题提供解决方案。
通过扩散模型并利用梯度指导的微调方法,我们提出了一种新的重建攻击方法,可通过泄露的梯度从图像处理系统中窃取私密的高分辨率图像。实验结果表明,我们的攻击方法能够成功恢复和窃取分辨率高达 512 x 512 像素的图像。此外,我们的攻击方法在图像重建的像素级准确性和时间效率方面明显优于其他攻击基准方法,并在一定程度上使差分隐私失效。