多源私有数据上的高效深度学习
本论文提出新的算法技术,包括隐私成本的细化分析,并在差分隐私框架下进行。 实验结果表明:我们可以在较小的隐私成本下训练具有非凸目标的深度神经网络,而且在软件复杂性、训练效率和模型质量上具有可管理的成本。
Jul, 2016
本研究介绍了一种在分布式情况下使用差分隐私训练临床数据神经网络的方法,并在 eICU 协作研究数据库和 The Cancer Genome Atlas 上进行了验证。
Dec, 2018
本文研究了分布式深度学习的多种方法,以保护数据的机密性,同时还允许服务器训练模型。在神经网络的背景下,比较了联邦学习,分离式学习和大批量随机梯度下降等多种方法,以及差分隐私、同态加密、遗忘传输和混淆电路等安全方法,讨论了它们在计算资源、数据泄露和通信效率方面的优缺点,并分享了未来的趋势。
Dec, 2018
本文提出一种不对称协作机器学习的实用方案,其中一方拥有数据,另一方仅拥有标签,提出了一种新的保护隐私的架构方案,可以有效地帮助两方合作训练深度学习模型。
Jul, 2020
本文介绍了一种分布式基础设施,用于实现分布式代理之间的点对点信任,从而协同执行保护隐私的机器学习工作流程。使用 Hyperledger Aries,Decentralised Identifiers (DIDs) 和 Verifiable Credentials (VCs) 建立了一个分布式信任体系,促进与心理健康护理相关的联邦学习工作流程。
Jun, 2020
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
Oct, 2019
提出了一种新的隐私保护深度学习框架,基于命令链和张量的有价值的表示,支持 Federated Learning、Secure Multiparty Computation 和 Differential Privacy,同时向终端用户暴露一个熟悉的深度学习 API,早期结果表明,除了差分隐私之外的隐私功能不会影响预测准确性,但当前的实现会增加显著的性能开销。这是第一个可靠、通用的隐私保护深度学习框架。
Nov, 2018
本文介绍了一种基于分布式身份技术的隐私保护的分散工作流,用于促进参与者之间可信的联邦学习,限制只有获得适当机构发放的可验证凭证的实体才能建立安全、经过认证的通信渠道,参与与心理健康有关的联邦学习流程。
Mar, 2021