从图神经网络中窃取链接
本文提出了针对归纳图神经网络的模型盗窃攻击,定义了威胁模型并根据对手的背景知识和目标模型的响应提出了六种攻击方式。在六个基准数据集上的评估结果显示,该攻击方式取得了良好的性能表现。
Dec, 2021
该论文介绍了一种针对归纳式图神经网络的无监督模型窃取攻击的新方法,该方法基于图对比学习和谱图增强,通过从目标模型高效提取信息。在六个数据集上对该攻击进行了全面评估,结果表明该方法相较于现有的窃取攻击具有更高的效率,并在所有基准测试中优于基准测试,实现了更高的窃取模型的保真度和下游准确性,同时对目标模型发送的查询次数较少。
May, 2024
本文介绍了一种隐秘而有效的攻击方法,通过推断图结构数据中的私有连接,暴露了图神经网络(GNNs)中的隐私漏洞。我们研究了在归纳设置中,新节点加入图并使用 API 查询预测时,私有边缘信息的潜在泄露。我们还提出了在维持模型效用的同时保护隐私的方法。相比于目前的技术水平,我们的攻击在推断连接方面表现出卓越性能。此外,我们研究了将差分隐私(DP)机制应用于减轻我们提出的攻击带来影响的可行性,分析了隐私保护和模型效用之间的权衡。我们的工作强调了 GNNs 固有的隐私漏洞,凸显了开发强大的隐私保护机制在其应用中的重要性。
Jul, 2023
通过针对归纳式图神经网络进行系统隐私分析,本文填补了以往对于归纳式图神经网络的全面隐私分析的空白,并通过对链接窃取攻击的分析,提出了后验攻击和组合攻击两种类型的攻击,发现归纳式图神经网络泄漏大量信息,使得攻击即使在没有关于图结构的先验知识的情况下,也能够有效进行;同时,研究了两种可能的防御方法并发现它们对攻击是无效的,因此需要更有效的防御机制。
May, 2024
该论文研究了对抗者拥有黑盒图神经网络模型访问权限的情景下的边缘隐私,通过分析与节点相连的节点的输出来推断节点之间的联系,揭示了即使在具有访问控制机制的系统中,一个适应性对手仍然可以破译节点之间的私密连接,从而揭示潜在敏感关系并损害图的机密性。
Nov, 2023
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
本文介绍了一种基于图神经网络的链接预测任务中的后门攻击方法,并揭示了 GNN 模型中存在的安全漏洞,当触发器出现时,后门将被嵌入 GNN 模型中,导致模型错误地预测未连接的两个节点之间存在链接关系。
Jan, 2024