Blink: 基于贝叶斯估计的图神经网络中的链路局部差分隐私
我们提出了一个基于图神经网络的学习框架,该框架可以在用户层面提供节点隐私,并且在损失效用性方面表现较低。我们使用分布式隐私保护的概念,并在节点水平对特征和标签数据应用随机化机制,在数据被中央服务器收集用于模型训练之前进行扰动。通过随机化数据的统计分析中的频率估计,我们开发了重构方法来逼近扰动数据的特征和标签。我们还形成了利用图聚类的频率估计来在子图层面监督训练过程的学习框架。在真实数据集和半合成数据集上进行了大量实验,证明了我们提出模型的有效性。
Sep, 2023
本文研究了节点数据隐私的问题,并提出了一种基于局部差分隐私的 GNN 学习算法和一个名为 KProp 的简单图卷积层作为降噪机制,实验表明该方法在低隐私损失的同时可以保持令人满意的准确性。
Jun, 2020
本研究提出了一种名为 LDP-GE 的隐私保护图嵌入框架,通过局部差分隐私机制对节点数据进行模糊处理,并采用个性化 PageRank 作为节点表示的相似度度量,理论分析和实验证明 LDP-GE 在节点分类和链接预测任务中具有良好的隐私和效用平衡,并显著优于现有方法。
Oct, 2023
本研究提出使用差分隐私的方法保护网络结构数据的隐私,通过注入适当的噪音以保证边隐私,改善结构学习,同时提高结构导向图的鉴别度,提高数据效用和保护个体链接隐私。通过在两个现实世界网络数据集上进行的广泛实验表明,我们的 DP-GGAN 模型能够有效地保护个体链接隐私并生成具有全局结构的图形数据。
May, 2020
本文介绍了一种隐秘而有效的攻击方法,通过推断图结构数据中的私有连接,暴露了图神经网络(GNNs)中的隐私漏洞。我们研究了在归纳设置中,新节点加入图并使用 API 查询预测时,私有边缘信息的潜在泄露。我们还提出了在维持模型效用的同时保护隐私的方法。相比于目前的技术水平,我们的攻击在推断连接方面表现出卓越性能。此外,我们研究了将差分隐私(DP)机制应用于减轻我们提出的攻击带来影响的可行性,分析了隐私保护和模型效用之间的权衡。我们的工作强调了 GNNs 固有的隐私漏洞,凸显了开发强大的隐私保护机制在其应用中的重要性。
Jul, 2023
差分隐私在学习表格、图像和序列数据等地方应用广泛,但在图神经网络中的节点级隐私方面仍面临挑战。本研究提出了一个解决节点级隐私问题的方案,包括异泊松采样和使用对称多元拉普拉斯噪声的随机化程序。实验证明该方案在高隐私条件下表现出显著优势,并经过隐私审计技术的验证。此外,本文还对某方法的节点级隐私保护进行了研究,发现其存在基本隐私缺陷,并证明了实现(强)隐私和(可接受的)效用是不可能的。
Nov, 2023
本文提出了一种新的神经网络架构 LPGNet,用于处理带有隐私敏感边缘的图形。该网络通过巧妙地设计边缘结构的使用方式,在训练中提供差分隐私(DP)保证,并在多个数据集中进行了实证研究,表现出了较好的实用性和隐私安全性。
May, 2022
本研究研究了在具有垂直数据分割(即不同的数据持有者具有节点特征或边缘信息)的场景下,如何通过使用图神经网络和差分隐私技术来保护边界隐私以进行联合训练,其结论表明,现有的机制往往存在泄漏隐私的风险。
Aug, 2021
我们综合研究引入了贝叶斯隐私并深入探讨了局部差分隐私及其贝叶斯对应之间错综复杂的关系,揭示了新的有关效用和隐私之间的权衡。
Mar, 2024
本文针对 LDP 算法在隐私、统计计算和大数据等领域的应用,介绍了不同 LDP 算法在本地程序用户隐私保护、重要数据识别和空间数据收集等问题上的实现并探讨了其未来发展方向。
Jul, 2019