隐私保护的差分隐私子图级联图神经网络
本文研究在联邦学习中,使用差分隐私和社区驱动方法来保障本地数据隐私,识别了一个安全漏洞并设计了两种攻击模式,Adversarial Mode 和 Backdoor Mode,实验结果表明这些攻击是有效的。
May, 2023
本文提出了一种隐私保护的图神经网络推荐模型,该模型采用联邦学习的方式对分散的用户数据进行训练,并采用本地差分隐私技术对用户隐私进行保护,同时通过用户 - 物品图扩展方法拓展本地用户 - 物品图来增强推荐效果,并在六个基准数据集上进行了广泛实验验证。
Feb, 2021
差分隐私在学习表格、图像和序列数据等地方应用广泛,但在图神经网络中的节点级隐私方面仍面临挑战。本研究提出了一个解决节点级隐私问题的方案,包括异泊松采样和使用对称多元拉普拉斯噪声的随机化程序。实验证明该方案在高隐私条件下表现出显著优势,并经过隐私审计技术的验证。此外,本文还对某方法的节点级隐私保护进行了研究,发现其存在基本隐私缺陷,并证明了实现(强)隐私和(可接受的)效用是不可能的。
Nov, 2023
通过图发布者机制,我们提出了一种新颖的图边保护框架 (GraphPub),既可以保护图拓扑结构,又能基本不改变数据的可用性,通过逆向学习和编码 - 解码机制,搜索一些对节点特征聚合没有太大负面影响的假边,并使用它们替换一些真实边,从而实现对图数据的发布,难以区分真假数据,实验证明我们的框架在隐私预算极低的情况下实现了接近原始图的模型准确性。
Feb, 2024
确保在推荐系统中跨人口群体的公平性至关重要,本文提出了一种名为 F2PGNN(公平联邦个性化图神经网络)的新框架,通过结合个性化图神经网络和公平考虑来解决不同人口群体之间固有偏见的普遍问题,在保护个人隐私和保持效用的同时,在联邦学习环境中使用基于图的模型实现了公平的个性化推荐。
Dec, 2023
通过个性化差分隐私框架和考虑各种异构性和属性调整的方法,该论文提出了一种高效地保护隐私的个性化差分隐私框架,并对联邦学习算法的收敛边界进行了分析,同时进一步研究了考虑时间变化的个性化因素的收敛性质。
Jun, 2024
通过提出 FedDEP,综合处理子图联合学习中的挑战,包括不完整的信息传播、邻居生成的效率和隐私保护,该方法利用潜在缺失邻居的 GNN 嵌入进行深度邻居生成,利用嵌入模型进行邻居生成的高效伪联邦学习,以及通过无噪声的边局部差分隐私进行隐私保护。
Jan, 2024
本文提出了一种新颖的差分隐私序列推荐框架 (DIPSGNN),通过噪声图神经网络方法实现差分隐私保护,解决了现有差分隐私推荐系统在顺序推荐中的局限性,能够保护依赖性互动并同时捕捉用户偏好,在隐私和准确性之间取得更好的平衡。
Sep, 2023