本文讨论了图嵌入在隐私方面存在的泄露风险,提出了三种推断攻击,并基于图嵌入扰动提出了有效的防御机制来减轻这些攻击的影响。
Oct, 2021
本研究调查了对图结构数据及其相应的图神经网络模型的黑盒属性推理攻击是否构成重要的隐私风险,并发现当攻击者具有对目标模型的黑盒访问权限时,与缺失值估计技术相比,GNNs 通常不会显着透露更多信息。
Jun, 2023
本研究针对图神经网络的隐私攻击风险展开了首个综合性的分析,提出并验证了三种攻击方法,并探究了两种防御机制的实用性。
Feb, 2021
文中指出,将原始输入数据映射为低维向量表示的嵌入函数,不仅会对基础语义信息进行编码,也会泄漏输入数据的敏感信息。本文采用三种攻击方式系统研究嵌入函数泄露的信息,即向量反演、敏感属性提取和信息泄漏。研究发现各种嵌入模型都存在不同程度泄漏,但同时也提出了一些抵御这种攻击的防御方法。
Mar, 2020
本文提出了 Adversarial Privacy Graph Embedding (APGE) 模型,它是一种图形对抗训练框架,可以学习来自图形结构数据的低维特征表征,并保护用户隐私信息,从而在解决节点分类和链接预测等任务时具有优越性能。
Aug, 2020
该论文研究了对抗者拥有黑盒图神经网络模型访问权限的情景下的边缘隐私,通过分析与节点相连的节点的输出来推断节点之间的联系,揭示了即使在具有访问控制机制的系统中,一个适应性对手仍然可以破译节点之间的私密连接,从而揭示潜在敏感关系并损害图的机密性。
Nov, 2023
本文研究了基于图神经网络的成员推理攻击技术,发现 GNN 中结构信息是造成泄漏的主要原因,提出了两种有效防御方法,可将攻击者的推理准确率降低 60%。
Jan, 2021
本文提出了一种针对保护隐私的网络嵌入方法,使用干扰原始网络的方式来减少泄漏隐私链接的风险,并通过量化隐私增益和效用丢失来确定最佳干扰方案,以获得最优的隐私效用权衡。
May, 2022
该论文对 GNNs 进行了系统研究,提出了 GraphMI 方法用于推断私有训练数据中的离散边缘,建议更有效的隐私防御措施。
Sep, 2022
研究了图表示是否可以通过图重建攻击来倒推生成它们的图,提出了一种通过图解码器从表示中恢复出图的方法。通过对三种不同类型(GCN,GAT 和 SNN)的图表示进行研究,发现 SNN 输出具有更好的保护隐私的能力,这表明对于更高阶的节点信息,需要构建更私密的表示来应对潜在威胁,如图重建攻击。
Feb, 2023