快速和可扩展的隐私推断
这项工作主要关注机器学习模型的训练阶段,在这个阶段对用户数据的隐私保护至关重要。我们提供了坚实的理论背景,以便更容易理解当前方法及其局限性。此外,我们对最新的模型训练框架进行了详细比较,提供了在标准基准上独特属性和性能的全面对比。我们重现了一些论文的结果,并考察现有作品对开放科学的支持程度,认为我们的工作就提高了关于隐私保护机器学习在理论进展和实际应用之间差距的意识,特别是在开放源代码可用性、可重复性和可用性方面。
Mar, 2024
本研究提出了一个名为 Phoenix 的系统,通过设计随机平滑的核心算法构建块的高效完全同态加密(FHE)对应项,使得可靠 NN 进行隐私保护的推理成为可能,并通过实验证明,Phoenix 在实现隐私保护的同时不会产生极高的延迟。
Oct, 2022
使用安全多方计算方法构建隐私保护的神经架构搜索框架,其中使用重新设计的 ReLU 和 Max-pooling 保混乱电路以及对秘密共享的 Softmax 函数的新替代方法,分析和实验表明其在安全性,效率和准确性方面具有优越性。
Apr, 2022
该研究在机器学习应用到敏感数据时,结合同态加密技术和神经网络提供了两种解决方案,分别是提高深度和宽度相对较高的网络精度和降低网络推理的延迟时间以提供更好的隐私保障。这两种方案应用于几个计算机视觉任务,并获得了良好的效果。
Dec, 2018
提出了一种名为 CryptoNN 的框架,该框架使用功能性加密方案来支持加密数据上的神经网络模型的训练,以解决神经网络模型训练过程中的隐私问题,并显示出与 MNIST 数据集上基线神经网络模型相似的准确性。
Apr, 2019
以保护隐私和安全的机器学习模型为目标,我们提出了一种基于混合同态加密方案的隐私保护机器学习方法,通过使用混合同态加密构建安全的分类结果学习模型,同时保护输入数据和机器学习模型的隐私。我们通过开发和评估一个基于混合同态加密的隐私保护机器学习应用程序,用于基于敏感心电图数据的心脏疾病分类,证明了我们方法的实际可行性。这种混合同态加密方案的成功整合为相对受限的末端设备上的机器学习提供了一个更安全、更注重隐私的未来展望。
Jan, 2024
训练具有多个实体的机器学习模型,并且在没有直接数据共享的情况下,可以解决由于业务、法律或道德限制而受阻的应用。本文设计和实施了新的隐私保护机器学习协议,用于逻辑回归和神经网络模型。我们采用了两个服务器模型,在数据所有者之间进行数据密钥共享,由这两个服务器进行联合数据的模型训练和评估。现有方法中存在的低效和不准确的重要方法是使用 Yao 噪声电路来计算非线性激活函数的来源。我们提出了基于密钥共享的查找表的计算非线性函数的新方法,既提供了计算效率,又提高了准确性。此外,我们还提出了一种针对隐私保护机器学习的放宽安全措施的探索。我们认为,在计算过程中,虽然有关于查找表访问模式的一些信息被透露,但它仍然保持 epsilon-dX 隐私。利用这种放松可显著减少训练所需的计算资源。我们提出了针对这种放松安全范式量身定制的加密协议,并定义和分析泄漏。我们的评估结果表明,我们的逻辑回归协议比 SecureML 快 9 倍,神经网络训练速度比 SecureML 快 688 倍。值得注意的是,我们的神经网络在 15 个周期内在 MNIST 数据集上实现了 96.6% 的准确率,超过了以往在相同架构下准确率为 93.4% 的基准。
Mar, 2024
本研究综述了利用同态加密解决神经网络数据隐私和安全问题的技术和策略,并分析了同态加密在神经网络训练和分类方面的当前研究现状、分类以及优化加密模型准确性和效率的技术。评估结果表明,尽管同态加密可以为神经网络提供强大的数据隐私保证,但仍存在许多挑战需要解决,例如对高级神经网络运算的有限支持、可扩展性问题以及性能平衡问题。
May, 2023
我们提出一种名为 CaPC 的机器学习方法,通过使用安全的多方计算和同态加密等技术,实现在协作学习环境中同时满足数据保密性和隐私性的要求,各方不需要显式地加入其培训集或训练集中央模型,且每个参与者都能够获得更高的准确性和公正性。
Feb, 2021