揭示 GNN 上双隐私保护中消息传递的作用
本文介绍了一种隐秘而有效的攻击方法,通过推断图结构数据中的私有连接,暴露了图神经网络(GNNs)中的隐私漏洞。我们研究了在归纳设置中,新节点加入图并使用 API 查询预测时,私有边缘信息的潜在泄露。我们还提出了在维持模型效用的同时保护隐私的方法。相比于目前的技术水平,我们的攻击在推断连接方面表现出卓越性能。此外,我们研究了将差分隐私(DP)机制应用于减轻我们提出的攻击带来影响的可行性,分析了隐私保护和模型效用之间的权衡。我们的工作强调了 GNNs 固有的隐私漏洞,凸显了开发强大的隐私保护机制在其应用中的重要性。
Jul, 2023
该论文研究了对抗者拥有黑盒图神经网络模型访问权限的情景下的边缘隐私,通过分析与节点相连的节点的输出来推断节点之间的联系,揭示了即使在具有访问控制机制的系统中,一个适应性对手仍然可以破译节点之间的私密连接,从而揭示潜在敏感关系并损害图的机密性。
Nov, 2023
本文研究了节点数据隐私的问题,并提出了一种基于局部差分隐私的 GNN 学习算法和一个名为 KProp 的简单图卷积层作为降噪机制,实验表明该方法在低隐私损失的同时可以保持令人满意的准确性。
Jun, 2020
本文提出了一种名为 Identity-aware Graph Neural Networks (ID-GNNs) 的消息传递图神经网络,通过节点中心的次元网络和异构消息传递来考虑节点的身份,在图形预测任务中比传统的 GNNs 提供更高的准确性。
Jan, 2021
提出了一种隐私保护的图表示学习框架,其中含有主要学习任务和隐私保护任务,并考虑了节点分类和链接预测作为两个感兴趣的任务,目标是利用互信息目标学习节点表示,同时获得隐私保护任务的性能接近随机猜测,并且实验评估了该框架在各种图数据集上的表现。
Jul, 2021
本文提出了一种采用总变分和 Wasserstein 距离进行敌对训练以本地过滤敏感属性的框架,从而增强对推断攻击的防御能力。实验证实,该方法在各种图结构和任务下均提供了强大的防御,并产生了适用于下游任务的竞争性 GNN 编码器。
Sep, 2020
研究论文总结了在图数据上攻击的目标信息,分类了 GNN 中的隐私保护技术,并回顾了可用于分析 / 解决 GNN 隐私问题的数据集和应用,为未来的研究提出了潜在方向,以构建更好的隐私保护 GNN。
Aug, 2023
提出了一种名为 MAPPING 的新型模型无关的去偏框架,用于公平节点分类,其中采用了基于距离协方差 $dCov$ 的公平约束,同时减小了任意维度中的特征和拓扑偏差,并结合对抗去偏以限制属性推断攻击的风险。在不同的 GNN 变体的真实数据集上进行实验,证明了 MAPPING 的有效性和灵活性,结果显示 MAPPING 能够在效用与公平之间取得更好的权衡,并减轻敏感信息泄露的隐私风险。
Jan, 2024
该研究提出了一种新的、适应性强的信息传递框架 ——bilateral-MP,利用节点类别信息估计成对的模块化梯度,并在聚合函数应用时利用梯度进一步保留全局图结构,在五个中等规模基准数据集上的实验表明,bilateral-MP 可以有效防止过度平滑导致的性能降低。
Feb, 2022