基于学习的声明性隐私保护联邦数据管理框架
提出了一种新的隐私保护深度学习框架,基于命令链和张量的有价值的表示,支持 Federated Learning、Secure Multiparty Computation 和 Differential Privacy,同时向终端用户暴露一个熟悉的深度学习 API,早期结果表明,除了差分隐私之外的隐私功能不会影响预测准确性,但当前的实现会增加显著的性能开销。这是第一个可靠、通用的隐私保护深度学习框架。
Nov, 2018
本文提出了一种结合差分隐私和安全多方计算的联邦学习方法,在保证训练和最终模型的隐私性的同时,也能够保持较高的预测准确率,这个系统不仅能应用于多种机器学习模型的训练,而且在实验上验证了它的优越性。
Dec, 2018
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
该论文提出了一种基于声誉系统的去中心化深度学习框架,它利用数字代币、本地可信度和差分隐私来确保公平性和隐私保护,实验结果显示其在三种实际环境下均能取得高度公平性,并且精度与集中式和分布式框架相当,高于单独框架。
Jul, 2020
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
Oct, 2019
通过提出的 Bayesian Privacy 框架,本文的研究成功地量化了隐私损失,证明了其安全的隐私保护能力,通过各种深度神经网络图像分类 MNIST、CIFAR10 和 CIFAR100 的实验结果,演示了一种新的联邦深度学习方法,该方法使用私有通行证层,具有高模型性能、隐私保护能力和低计算复杂性的特点。
Sep, 2021
本研究提出了一种基于不同隐私的分散式深度学习方法,该方法对协作学习的数据进行隐私保护,保障节点之间数据的安全交换。实验结果表明,在稀疏图和不均匀数据分布下,不同隐私梯度跟踪具有抗干扰性,并且可在不向其他代理共享原始数据的情况下学习高准确性模型。
Jun, 2023
利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展。
Sep, 2023
本文介绍了一种基于分布式身份技术的隐私保护的分散工作流,用于促进参与者之间可信的联邦学习,限制只有获得适当机构发放的可验证凭证的实体才能建立安全、经过认证的通信渠道,参与与心理健康有关的联邦学习流程。
Mar, 2021