隐私保护联邦学习的混合方法
本文介绍了一种基于功能加密的安全多方计算协议,采用混合 Alpha 方法实现隐私保护联邦学习,可以在保证模型性能和隐私保障的前提下,减少了 68% 的训练时间和 92% 的数据传输量。
Dec, 2019
本研究提出了一种新的基于分布式差分隐私的隐私保护联合学习方法,其可以有效避免联合攻击,以及 “Sybil” 攻击,并给出了相应的安全性证明。在模拟的 5000 个分布式网络客户端上的实验结果表明,该协议执行速度快,学习准确率高,且具有良好的隐私保护性能。
Feb, 2022
我们提出了一种新颖的解决方案 PV4FAD,它结合了全同态加密 (HE)、安全多方计算 (SMPC)、差分隐私 (DP) 和随机化技术,以在训练期间平衡隐私和准确性,并防止模型部署时的推理攻击。
Oct, 2023
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
Oct, 2019
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
本文提出一种隐私保护的联邦学习框架,采用安全多方计算的方式,将医院分为不同簇,通过局部训练和参数交换,实现共同学习模型而无需共享患者私人数据,并通过公开数据的实验结果表明,与差分隐私相比,该框架可以以更高的准确度达到无隐私泄露的效果,但通信开销较高。
Aug, 2022
在这篇论文中,我们以一个联邦迁移学习框架解决了数据异构性和隐私保护这两个突出的挑战,旨在在遵守隐私约束的同时通过利用来自多个异构源数据集的信息来增强目标数据集上的学习能力。我们严格地提出了 “联邦差分隐私” 的概念,为每个数据集提供隐私保证而不依赖于可信任的中央服务器。在此隐私约束下,我们研究了三个经典的统计问题,即一维均值估计、低维线性回归和高维线性回归。通过研究极小化速率和确定这些问题的隐私成本,我们展示了联邦差分隐私是介于已确立的本地和中央模型差分隐私之间的一个中间隐私模型。我们的分析涵盖了数据异构性和隐私,突出了在联邦学习中二者的基本成本,并强调了跨数据集的知识迁移的好处。
Mar, 2024
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
本文研究在联邦学习中,使用差分隐私和社区驱动方法来保障本地数据隐私,识别了一个安全漏洞并设计了两种攻击模式,Adversarial Mode 和 Backdoor Mode,实验结果表明这些攻击是有效的。
May, 2023