贝叶斯差分隐私下的联邦学习
在这篇论文中,我们以一个联邦迁移学习框架解决了数据异构性和隐私保护这两个突出的挑战,旨在在遵守隐私约束的同时通过利用来自多个异构源数据集的信息来增强目标数据集上的学习能力。我们严格地提出了 “联邦差分隐私” 的概念,为每个数据集提供隐私保证而不依赖于可信任的中央服务器。在此隐私约束下,我们研究了三个经典的统计问题,即一维均值估计、低维线性回归和高维线性回归。通过研究极小化速率和确定这些问题的隐私成本,我们展示了联邦差分隐私是介于已确立的本地和中央模型差分隐私之间的一个中间隐私模型。我们的分析涵盖了数据异构性和隐私,突出了在联邦学习中二者的基本成本,并强调了跨数据集的知识迁移的好处。
Mar, 2024
本研究将差分隐私技术引入联邦学习框架以实现隐私保护的医学图像分类,证实了隐私保护与模型准确性之间的权衡存在,但我们证明了差分隐私的隐私预算的战略校准可以保持健壮的图像分类性能同时提供实质性的隐私保护。
Jun, 2023
通过提出的 Bayesian Privacy 框架,本文的研究成功地量化了隐私损失,证明了其安全的隐私保护能力,通过各种深度神经网络图像分类 MNIST、CIFAR10 和 CIFAR100 的实验结果,演示了一种新的联邦深度学习方法,该方法使用私有通行证层,具有高模型性能、隐私保护能力和低计算复杂性的特点。
Sep, 2021
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
提出了一种具有差分隐私保证的通信高效的联邦学习训练算法,采用二进制神经网络 (BNNs) 并引入离散噪声以实现客户级别的隐私保护。通过实验证明,该算法在保证隐私的同时,实现了较低的通信开销和性能提升。
Aug, 2023
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024
我们的研究针对差分隐私的联邦学习进行了系统的概述和分类,提出了一种新的基于差分隐私和联邦场景定义和保证的分类方法,并探讨了差分隐私在联邦学习场景中的应用,为隐私保护的联邦学习提供了有价值的洞见和未来研究方向。
May, 2024
本文介绍了针对异构客户端的联邦学习框架,基于训练本地的贝叶斯模型,通过在网络的输出空间中加入监管,提供了处理不同限制和限制条件的自然方法,并提供了严格保密性保证和模型的不确定性表征
Jun, 2023
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
Oct, 2019
本文探讨了结合差分隐私和多智能体赌博学习的联邦私有赌博机制。我们研究了如何将基于差分隐私的置信上界方法应用于多智能体环境,特别是应用于主 - 从和完全分散的联邦学习环境中,并提供了有关所提出方法的隐私和后悔性能的理论分析,并探讨了这两者之间的权衡。
May, 2020