实用的、私密的协作价值确认
本文提出一种不对称协作机器学习的实用方案,其中一方拥有数据,另一方仅拥有标签,提出了一种新的保护隐私的架构方案,可以有效地帮助两方合作训练深度学习模型。
Jul, 2020
通过差分隐私作为奖励,我们通过引入协作机器学习训练模型,对多个参与方的数据进行价值评估和奖励,并保护隐私风险。实证结果表明,我们的方法在合成和真实数据集上具有有效性和实用性。
Apr, 2024
使用全同态加密的方法实现神经网络的训练外包,以保护数据的机密性,可以在加密的数据上进行统一的训练,并学习量化的神经网络模型。数据可以在多个参与方之间进行水平或垂直分割,从而实现机密数据的合作。研究在多个数据集上训练逻辑回归和多层感知机。
Jan, 2024
本研究旨在通过设计一种远程数据隐私保护算法,利用概率近似算子,使得同步训练的目标模型能够在保证差分隐私的前提下,更好地应用于深度学习领域,并优化计算效率。
Apr, 2023
本文提出了一种结合差分隐私和安全多方计算的联邦学习方法,在保证训练和最终模型的隐私性的同时,也能够保持较高的预测准确率,这个系统不仅能应用于多种机器学习模型的训练,而且在实验上验证了它的优越性。
Dec, 2018
本研究提出了一种新的基于分布式差分隐私的隐私保护联合学习方法,其可以有效避免联合攻击,以及 “Sybil” 攻击,并给出了相应的安全性证明。在模拟的 5000 个分布式网络客户端上的实验结果表明,该协议执行速度快,学习准确率高,且具有良好的隐私保护性能。
Feb, 2022
我们介绍一种新颖的联邦学习框架 FedCEO,通过让客户端相互合作,在模型效用和用户隐私之间取得平衡,实现了严格的隐私保障。我们在服务器上对堆叠的本地模型参数进行高效的张量低秩近似优化,并使用光谱空间灵活截断高频分量,从而有效地恢复被破坏的语义信息并对不同隐私设置和持续训练过程平滑全局语义空间,同时改进了最先进的效用 - 隐私折衷边界。我们通过对典型图像数据集进行实验证实了我们的理论结果,在不同隐私设置下观察到显著的性能提升和严格的隐私保证。
Feb, 2024
我们提出一种名为 CaPC 的机器学习方法,通过使用安全的多方计算和同态加密等技术,实现在协作学习环境中同时满足数据保密性和隐私性的要求,各方不需要显式地加入其培训集或训练集中央模型,且每个参与者都能够获得更高的准确性和公正性。
Feb, 2021
通过实现隐私保障和最终模型准确性之间的平衡,本文研究了何时以及如何设计一种对所有参与者都有利的联邦学习协议,并给出了在均值估计和凸随机优化等背景下存在互惠协议的必要和充分条件。此外,本文还设计了最大化最终模型准确性的协议,并通过合成实验验证了其优势。
Mar, 2024
我们提出了一种新颖的解决方案 PV4FAD,它结合了全同态加密 (HE)、安全多方计算 (SMPC)、差分隐私 (DP) 和随机化技术,以在训练期间平衡隐私和准确性,并防止模型部署时的推理攻击。
Oct, 2023