在竖直分割的多方学习中实现差分隐私
HDP-VFL 是首个联邦学习中差分隐私的框架,实现了模型学习的隐私保护,其效果与非隐私保护的联邦学习相似,并且采用了同态加密和安全多方计算等协议以确保计算和训练的安全。
Sep, 2020
我们提出了一种新颖的解决方案 PV4FAD,它结合了全同态加密 (HE)、安全多方计算 (SMPC)、差分隐私 (DP) 和随机化技术,以在训练期间平衡隐私和准确性,并防止模型部署时的推理攻击。
Oct, 2023
本文提出了一种结合差分隐私和安全多方计算的联邦学习方法,在保证训练和最终模型的隐私性的同时,也能够保持较高的预测准确率,这个系统不仅能应用于多种机器学习模型的训练,而且在实验上验证了它的优越性。
Dec, 2018
通过差分隐私和稳定学习理论的显式连接,提出了一种更好的隐私 / 实用性权衡方法,以便为所有凸型 Lipschitz 有界学习任务获得更好的权衡,并将其应用在医疗数据上,以获得更准确的模型。但改进后的隐私机制使得不同隐私机制更容易受到模型反演攻击的影响。
Dec, 2015
开发一种新的计算框架来提高线性规划方法下的度量差分隐私的可扩展性,并以此为基础解决主程序和子程序的的边界分解,实验证明了该机制在多个数据集上的优越可扩展性和效率。
May, 2024
本文研究了差分隐私下发布实数数据流的问题,并提出了一种基于指数机制和质量函数的私有阈值计算方法、在线分层方法和后处理技术。这个框架由三个组件组成:一个能私下计算阈 值的阈值优化器,一个在数据流中添加标定噪声的扰动器以及一个通过后处理来改善结果的远光镜。我们的算法考虑了更严格的本地差分隐私限制并超越了现有技术。使用四个真实数据集,展示了本方法比现有技术提高了 6 到 10 个数量级的实用性。
May, 2020
本文提出一种异构的差分隐私概念,旨在充分考虑用户之间的隐私态度和期望差异,结合 Laplacian 机制实现个性化系统中的隐私保护,并在真实数据集上实验证明该方法能够在保障隐私同时保持良好的语义聚类结果。
Apr, 2015
该论文提出了一种针对分布式在线学习的隐私保护算法,在保证微分隐私的同时提高算法的学习准确率,并采用本地微分隐私算法框架来避免对数据收集方的信任,有效地对包括逻辑回归和基于 CNN 的图像分类等任务进行了测试。
Jun, 2023
本文提出了一种具有隐私保护主成分分析(PPPCA)的多方建模范式,PPPCA 可以在本地保持明文数据的前提下完成 PCA 的多方协同执行,我们还使用两种技术,即同态加密和秘密共享,提出了实现。PPPCA 的输出可以直接发送给数据消费者以构建任何机器学习模型。我们在三个 UCI 基准数据集和一个真实世界的欺诈检测数据集上进行了实验,结果表明,建立在 PPPCA 之上的模型的准确率与基于集中式明文数据构建的 PCA 的模型相同。
Feb, 2020
我们探索了记录级个性化差分隐私的跨域 FL 的未知领域,提出了一个名为 rPDP-FL 的新框架,采用两阶段混合抽样方案,通过客户端级别和非均匀记录级别抽样来满足不同的隐私需求。我们介绍了一个名为 Simulation-CurveFitting 的多功能解决方案,通过揭示 q 和 ε 之间的非线性相关性并推导出一个优雅的数学模型来解决问题。我们的评估表明,相比不考虑个性化隐私保护的基线,我们的解决方案可以提供显著的性能提升。
Jan, 2024