反推攻击图神经网络模型
机器学习的广泛应用使得隐私问题变得尤为紧迫。本文提出了一种名为 Graph Model Inversion Attack (GraphMI) 的攻击方法,旨在通过反演目标模型中的 GNN,从而提取训练图的私有图数据。我们提出了投影梯度模块来解决图的离散性问题,并设计了图自编码器模块来高效利用图拓扑、节点属性和目标模型参数进行边缘推断。我们还展示了模型反演风险与边缘影响之间的联系,并在几个公共数据集上进行了广泛的实验以证明我们方法的有效性。此外,我们还表明最基本的差分隐私几乎无法保护我们的攻击同时保持良好的效用。
Jun, 2021
本文提出了一种基于 Inversion-specific GAN 的新型模型反演攻击方法,通过训练鉴别器不仅区分真伪样本,而且包括目标模型提供的软标签,进而为每个目标类建模私人数据分布,成功率比先前的攻击方式有所提高(150%),而且普适于多种数据集和模型。
Oct, 2020
模型反演攻击致力于利用对预训练模型的访问权限揭示关于训练数据的私密信息,这些攻击使得对与私密训练数据密切一致的高保真数据的重建成为可能,从而引发了重大的隐私担忧。尽管该领域取得了快速的进展,但我们仍然缺乏对现有模型反演攻击和防御方法的全面概述。为了填补这一空白,本文对该领域进行了深入研究,并提出了综合调查报告。首先,本文简要回顾了机器学习场景下传统的模型反演方法。然后,对多种模态和学习任务下深度神经网络 (DNNs) 的近期攻击和防御方法进行了详细分析和比较。
Feb, 2024
本文介绍了一种新型攻击方法 —— 生成模型反演攻击,它可以显著地提高逆转深度神经网络的准确率,攻击者使用部分公共信息学习分布先验,引导逆转过程,并且通过实验证明了差分隐私在该攻击下的防御效果有限。
Nov, 2019
我们提出了一种新的模型反演攻击方法,名为 HomoGMI 和 HeteGMI,旨在通过最大化目标 GNN 上的交叉熵损失和重构图上的第一和第二阶近似程度优化方法,在多个基准测试中的实验证明,该方法可以比竞争对手获得更好的性能。
Oct, 2023
本研究提出了一种基于强化学习的黑盒模型反演攻击方法,利用生成对抗网络(GANs)和 Markov 决策过程来搜索潜在空间以构建训练机器学习模型所用的隐私数据,并且在各种数据集和模型上取得了最先进的攻击性能。
Apr, 2023
本文提出了针对归纳图神经网络的模型盗窃攻击,定义了威胁模型并根据对手的背景知识和目标模型的响应提出了六种攻击方式。在六个基准数据集上的评估结果显示,该攻击方式取得了良好的性能表现。
Dec, 2021