我们提出一种名为 CaPC 的机器学习方法,通过使用安全的多方计算和同态加密等技术,实现在协作学习环境中同时满足数据保密性和隐私性的要求,各方不需要显式地加入其培训集或训练集中央模型,且每个参与者都能够获得更高的准确性和公正性。
Feb, 2021
本文提出一种不对称协作机器学习的实用方案,其中一方拥有数据,另一方仅拥有标签,提出了一种新的保护隐私的架构方案,可以有效地帮助两方合作训练深度学习模型。
Jul, 2020
该研究提出了 COPML 算法,这是一个完全去中心化的训练框架,可以保护数据隐私并实现可伸缩性,使用对个体数据进行安全编码的方式在多方之间分发计算负载,并以分布式方式执行训练计算和模型更新。实验演示了 COPML 相较于基准协议在训练速度上可实现高达 16 倍的加速。
Nov, 2020
本文介绍了一种称为联邦学习的新机器学习方法,并使用多方计算来实现 FL 模型的隐私保护模型聚合,以实现在 IoT 智能制造平台中利用各自数据集进行联合训练的效果。
May, 2020
我们提出了一种新颖的解决方案 PV4FAD,它结合了全同态加密 (HE)、安全多方计算 (SMPC)、差分隐私 (DP) 和随机化技术,以在训练期间平衡隐私和准确性,并防止模型部署时的推理攻击。
Oct, 2023
这项工作主要关注机器学习模型的训练阶段,在这个阶段对用户数据的隐私保护至关重要。我们提供了坚实的理论背景,以便更容易理解当前方法及其局限性。此外,我们对最新的模型训练框架进行了详细比较,提供了在标准基准上独特属性和性能的全面对比。我们重现了一些论文的结果,并考察现有作品对开放科学的支持程度,认为我们的工作就提高了关于隐私保护机器学习在理论进展和实际应用之间差距的意识,特别是在开放源代码可用性、可重复性和可用性方面。
Mar, 2024
研究利用安全多方计算技术,设计和实现了多个安全多方计算友好的机器学习基元,包括类别权重调整和可并行近似激活函数,以解决在基因组研究中由于涉及到多方数据协作,数据隐私和机密性等问题。该研究在 iDASH2019 安全基因组分析竞赛的第四组别获得第一名。
Feb, 2020
本文提出了一种结合差分隐私和安全多方计算的联邦学习方法,在保证训练和最终模型的隐私性的同时,也能够保持较高的预测准确率,这个系统不仅能应用于多种机器学习模型的训练,而且在实验上验证了它的优越性。
Dec, 2018
通过开发 P4(Personalized Private Peer-to-Peer)方法解决个性化学习中的客户聚类和数据隐私的挑战,保证每个客户在培训期间和培训后维护不同的隐私保证,并在多个基准数据集和不同的神经网络模型上展示了相对于差分隐私 P2P 技术的高达 40%的精确度提高。
May, 2024
提出了一种名为 CryptoNN 的框架,该框架使用功能性加密方案来支持加密数据上的神经网络模型的训练,以解决神经网络模型训练过程中的隐私问题,并显示出与 MNIST 数据集上基线神经网络模型相似的准确性。
Apr, 2019