保护重构及其在私有联邦学习中的应用
本文研究重建攻击和隐私保护,通过实验表明较大的隐私预算不能保护模型的成员推断,但可以保护好非常罕见的秘密,并提出一种相同机制的更好的重建攻击隐私保证。
Feb, 2022
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
本文介绍了一种新的本地差分隐私技术,可以在时间上保持最新的统计数据,隐私保证仅随基础分布变化次数而衰减,而不是收集周期次数,其中提供了使用频率和重量估计的应用程序。
Feb, 2018
我们提出了一个基于图神经网络的学习框架,该框架可以在用户层面提供节点隐私,并且在损失效用性方面表现较低。我们使用分布式隐私保护的概念,并在节点水平对特征和标签数据应用随机化机制,在数据被中央服务器收集用于模型训练之前进行扰动。通过随机化数据的统计分析中的频率估计,我们开发了重构方法来逼近扰动数据的特征和标签。我们还形成了利用图聚类的频率估计来在子图层面监督训练过程的学习框架。在真实数据集和半合成数据集上进行了大量实验,证明了我们提出模型的有效性。
Sep, 2023
在这篇论文中,我们以一个联邦迁移学习框架解决了数据异构性和隐私保护这两个突出的挑战,旨在在遵守隐私约束的同时通过利用来自多个异构源数据集的信息来增强目标数据集上的学习能力。我们严格地提出了 “联邦差分隐私” 的概念,为每个数据集提供隐私保证而不依赖于可信任的中央服务器。在此隐私约束下,我们研究了三个经典的统计问题,即一维均值估计、低维线性回归和高维线性回归。通过研究极小化速率和确定这些问题的隐私成本,我们展示了联邦差分隐私是介于已确立的本地和中央模型差分隐私之间的一个中间隐私模型。我们的分析涵盖了数据异构性和隐私,突出了在联邦学习中二者的基本成本,并强调了跨数据集的知识迁移的好处。
Mar, 2024
在该研究中,我们提出了基于模拟的隐私保护数据集推理方法,利用神经条件密度估计器近似后验分布,纠正隐私保护机制引入的偏差,并展示了隐私与效用之间的权衡的必要性和可行性。
Oct, 2023
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
Oct, 2019
本文研究在隐私模型下的统计风险最小化问题,针对局部隐私框架,确定了统计估计过程的收敛速率上下限,并展示了数据保留隐私量与任何统计估计器或学习程序的收敛速率之间的精确权衡。
Oct, 2012
研究分布式机器学习系统,并基于修正的随机优化算法实现私人级联学习,在保证局部模型私密性的同时,与全局模型进行协调,提升了准确性和隐私保护的平衡。
Feb, 2022