本文研究了基于图神经网络的成员推理攻击技术,发现 GNN 中结构信息是造成泄漏的主要原因,提出了两种有效防御方法,可将攻击者的推理准确率降低 60%。
Jan, 2021
本论文针对图神经网络的成员推断攻击扩展到了整个图记录的成员推断,通过不同的攻击能力实现了两种攻击类型:基于训练的攻击和基于阈值的攻击,并在七个真实数据集中使用五种代表性的 GNN 模型进行了全面的实验评估,结果表明我们的攻击方法是有效的,对于图级分类任务的 MIAs 更多地与 GNN 的过拟合水平有关。
Oct, 2021
本研究调查了对图结构数据及其相应的图神经网络模型的黑盒属性推理攻击是否构成重要的隐私风险,并发现当攻击者具有对目标模型的黑盒访问权限时,与缺失值估计技术相比,GNNs 通常不会显着透露更多信息。
Jun, 2023
本文提出了针对归纳图神经网络的模型盗窃攻击,定义了威胁模型并根据对手的背景知识和目标模型的响应提出了六种攻击方式。在六个基准数据集上的评估结果显示,该攻击方式取得了良好的性能表现。
Dec, 2021
该论文研究了对抗者拥有黑盒图神经网络模型访问权限的情景下的边缘隐私,通过分析与节点相连的节点的输出来推断节点之间的联系,揭示了即使在具有访问控制机制的系统中,一个适应性对手仍然可以破译节点之间的私密连接,从而揭示潜在敏感关系并损害图的机密性。
Nov, 2023
该论文对 GNNs 进行了系统研究,提出了 GraphMI 方法用于推断私有训练数据中的离散边缘,建议更有效的隐私防御措施。
Sep, 2022
该论文研究了机器学习模型面临的模型训练攻击问题,在实验中成功地运用了攻击方法将 GNN 模型复制出来,可对图形结构和节点特征进行提取攻击
Oct, 2020
该论文介绍了一种针对归纳式图神经网络的无监督模型窃取攻击的新方法,该方法基于图对比学习和谱图增强,通过从目标模型高效提取信息。在六个数据集上对该攻击进行了全面评估,结果表明该方法相较于现有的窃取攻击具有更高的效率,并在所有基准测试中优于基准测试,实现了更高的窃取模型的保真度和下游准确性,同时对目标模型发送的查询次数较少。
May, 2024
本文首次通过三种推理攻击来量化图嵌入中的隐私泄漏,同时提出了对应的攻击策略,包括成员推理攻击、图重构攻击和属性推理攻击,并表明图嵌入与节点属性存在强相关性,让攻击者能够推断敏感信息。
本文研究了基于迁移学习模型的成员推断攻击,采用了影子模型训练策略,通过实验结果展示了成员推断攻击的有效性,并揭示了机器学习模型在实践中存在的成员隐私泄露风险。
Sep, 2020