知识增强的分布式模型反演攻击
本文介绍了一种新型攻击方法 —— 生成模型反演攻击,它可以显著地提高逆转深度神经网络的准确率,攻击者使用部分公共信息学习分布先验,引导逆转过程,并且通过实验证明了差分隐私在该攻击下的防御效果有限。
Nov, 2019
模型反演攻击致力于利用对预训练模型的访问权限揭示关于训练数据的私密信息,这些攻击使得对与私密训练数据密切一致的高保真数据的重建成为可能,从而引发了重大的隐私担忧。尽管该领域取得了快速的进展,但我们仍然缺乏对现有模型反演攻击和防御方法的全面概述。为了填补这一空白,本文对该领域进行了深入研究,并提出了综合调查报告。首先,本文简要回顾了机器学习场景下传统的模型反演方法。然后,对多种模态和学习任务下深度神经网络 (DNNs) 的近期攻击和防御方法进行了详细分析和比较。
Feb, 2024
本研究提出了一种基于强化学习的黑盒模型反演攻击方法,利用生成对抗网络(GANs)和 Markov 决策过程来搜索潜在空间以构建训练机器学习模型所用的隐私数据,并且在各种数据集和模型上取得了最先进的攻击性能。
Apr, 2023
基于生成对抗网络的模型逆向攻击旨在通过在潜在空间中搜索代码来从复杂深度学习模型中恢复私有训练数据。本文提出了一种新颖的分布式黑盒模型逆向攻击方法,通过构建概率潜在空间来搜索目标隐私数据,相比现有方案具有更好的攻击准确性和性能。
Apr, 2024
本文提出了两个能够有效提高现有所有最优模型对抗攻击性能的解决方案:对现有最优模型对抗攻击算法的优化目标进行分析并提出了改进的优化目标,以及分析了 “过度拟合” 并提出了一种新的 “模型增强” 思想来克服这个问题。实验证明,这些提出的解决方案能使现有的最优模型对抗攻击算法准确率提高 11.8%。
Apr, 2023
机器学习的广泛应用使得隐私问题变得尤为紧迫。本文提出了一种名为 Graph Model Inversion Attack (GraphMI) 的攻击方法,旨在通过反演目标模型中的 GNN,从而提取训练图的私有图数据。我们提出了投影梯度模块来解决图的离散性问题,并设计了图自编码器模块来高效利用图拓扑、节点属性和目标模型参数进行边缘推断。我们还展示了模型反演风险与边缘影响之间的联系,并在几个公共数据集上进行了广泛的实验以证明我们方法的有效性。此外,我们还表明最基本的差分隐私几乎无法保护我们的攻击同时保持良好的效用。
Jun, 2021
提出了一种新颖的动态记忆模型逆向攻击(DMMIA),它利用历史学习的知识与样本交互来诱导多样性生成,并通过构建两种类型的原型(被称为 Intra-class Multicentric Representation 和 Inter-class Discriminative Representation)注入关于历史学习知识的信息,从而获得更具多样性和区分性的生成结果。实验证明,DMMIA 攻击方法优于现有的模型逆向攻击方法。
Aug, 2023