保护图神经网络中的节点隐私
我们提出了一个基于图神经网络的学习框架,该框架可以在用户层面提供节点隐私,并且在损失效用性方面表现较低。我们使用分布式隐私保护的概念,并在节点水平对特征和标签数据应用随机化机制,在数据被中央服务器收集用于模型训练之前进行扰动。通过随机化数据的统计分析中的频率估计,我们开发了重构方法来逼近扰动数据的特征和标签。我们还形成了利用图聚类的频率估计来在子图层面监督训练过程的学习框架。在真实数据集和半合成数据集上进行了大量实验,证明了我们提出模型的有效性。
Sep, 2023
本文从隐私的角度研究了数据差分隐私在图结构数据上的应用,讨论了适用于图发布及其相关统计数据的差分隐私公式以及基于图的数据机器学习,包括图神经网络 (GNNs)。通过对已有工作分类以及讨论挑战和应用前景,系统化地研究了不同的图差分隐私公式,并将这些工作分为图分析任务和基于 GNNs 的图学习任务。文章最后讨论了当前领域存在的问题和未来研究的方向。
Mar, 2022
本文研究了节点数据隐私的问题,并提出了一种基于局部差分隐私的 GNN 学习算法和一个名为 KProp 的简单图卷积层作为降噪机制,实验表明该方法在低隐私损失的同时可以保持令人满意的准确性。
Jun, 2020
通过图发布者机制,我们提出了一种新颖的图边保护框架 (GraphPub),既可以保护图拓扑结构,又能基本不改变数据的可用性,通过逆向学习和编码 - 解码机制,搜索一些对节点特征聚合没有太大负面影响的假边,并使用它们替换一些真实边,从而实现对图数据的发布,难以区分真假数据,实验证明我们的框架在隐私预算极低的情况下实现了接近原始图的模型准确性。
Feb, 2024
本研究提出了一种名为 LDP-GE 的隐私保护图嵌入框架,通过局部差分隐私机制对节点数据进行模糊处理,并采用个性化 PageRank 作为节点表示的相似度度量,理论分析和实验证明 LDP-GE 在节点分类和链接预测任务中具有良好的隐私和效用平衡,并显著优于现有方法。
Oct, 2023
提出了一种名为 PoinDP 的 Poincaré 差分隐私框架,用于基于双曲几何的层次感知图嵌入的保护,通过学习双曲空间中的层次权重和自适应分配隐私保护强度来解决现有隐私保护框架在层次传播中保护能力不足的问题,实现了在节点分类任务上既能有效保护隐私又能保持良好性能的优势。
Dec, 2023
该研究提出了面向图形学习设置的新型 Differential Privacy (DP) 方法框架 Graph Differential Privacy (GDP),并介绍了 Differentially Private Decoupled Graph Convolution (DPDGC) 模型,以实现对网状结构的隐私保护和优良的预测精度,进而在七个节点分类基准数据集上展示了其优异的隐私 - 实用性权衡。
Jul, 2023
通过在真实和合成数据集上不同隐私水平下进行隐私 - 效用权衡和通过成员推断攻击进行审计,从医疗领域的人口图中启动对不同 ially 静态图神经网络的经验调查。我们的发现强调了此特定 DP 应用领域的潜力和挑战。此外,我们通过显示图同质度的程度与训练模型准确度之间的相关性,发现底层图结构构成更大性能差距的潜在因素。
Jul, 2023
本研究提出使用差分隐私的方法保护网络结构数据的隐私,通过注入适当的噪音以保证边隐私,改善结构学习,同时提高结构导向图的鉴别度,提高数据效用和保护个体链接隐私。通过在两个现实世界网络数据集上进行的广泛实验表明,我们的 DP-GGAN 模型能够有效地保护个体链接隐私并生成具有全局结构的图形数据。
May, 2020
本文提出了一种名为 ProGAP 的新型差分隐私图神经网络,通过逐步训练的方法改善了精度和隐私之间的权衡,并使用聚合扰动技术确保差分隐私,证明了 ProGAP 在训练和推断阶段均能保证边界和节点级的隐私保证,实验结果证明 ProGAP 比现有的市场领先的差分隐私图神经网络能够实现高达 5%-10%的更高准确性。
Apr, 2023