Helen:线性模型中的恶意安全合作学习
该研究提出了 COPML 算法,这是一个完全去中心化的训练框架,可以保护数据隐私并实现可伸缩性,使用对个体数据进行安全编码的方式在多方之间分发计算负载,并以分布式方式执行训练计算和模型更新。实验演示了 COPML 相较于基准协议在训练速度上可实现高达 16 倍的加速。
Nov, 2020
通过这项工作,我们提出了一种对抗恶意服务器、抵御恶意客户端的点对点学习方案,核心贡献是一个通用框架,使得兼容的模型更新聚合算法能够在服务器和客户端恶意行为的环境下运行。此外,我们展示了我们的方法在由数百个节点对标准数据集训练的百万参数模型上的计算效率。
Oct, 2023
训练具有多个实体的机器学习模型,并且在没有直接数据共享的情况下,可以解决由于业务、法律或道德限制而受阻的应用。本文设计和实施了新的隐私保护机器学习协议,用于逻辑回归和神经网络模型。我们采用了两个服务器模型,在数据所有者之间进行数据密钥共享,由这两个服务器进行联合数据的模型训练和评估。现有方法中存在的低效和不准确的重要方法是使用 Yao 噪声电路来计算非线性激活函数的来源。我们提出了基于密钥共享的查找表的计算非线性函数的新方法,既提供了计算效率,又提高了准确性。此外,我们还提出了一种针对隐私保护机器学习的放宽安全措施的探索。我们认为,在计算过程中,虽然有关于查找表访问模式的一些信息被透露,但它仍然保持 epsilon-dX 隐私。利用这种放松可显著减少训练所需的计算资源。我们提出了针对这种放松安全范式量身定制的加密协议,并定义和分析泄漏。我们的评估结果表明,我们的逻辑回归协议比 SecureML 快 9 倍,神经网络训练速度比 SecureML 快 688 倍。值得注意的是,我们的神经网络在 15 个周期内在 MNIST 数据集上实现了 96.6% 的准确率,超过了以往在相同架构下准确率为 93.4% 的基准。
Mar, 2024
我们提出一种名为 CaPC 的机器学习方法,通过使用安全的多方计算和同态加密等技术,实现在协作学习环境中同时满足数据保密性和隐私性的要求,各方不需要显式地加入其培训集或训练集中央模型,且每个参与者都能够获得更高的准确性和公正性。
Feb, 2021
本文提出一种不对称协作机器学习的实用方案,其中一方拥有数据,另一方仅拥有标签,提出了一种新的保护隐私的架构方案,可以有效地帮助两方合作训练深度学习模型。
Jul, 2020
本研究通过建立一个模型,并且研究了两个学习任务,即平均值估计和强凸目标的多轮 SGD,提出了一种可以激励诚实通信并确保学习质量的机制,以便对抗具有不诚实更新倾向的竞争者。我们最后在标准非凸联合学习基准测试上验证了我们机制的有效性,并证明了对于协作学习,明确建模不诚实客户的激励和行为可以提供强大的鲁棒性保证。
May, 2023
在使用机器学习的背景下,提出了一种基于全同态加密方案和标签差分隐私的交互式协议,确保两个参与方在合作前能得到准确的预测改进,并通过实验证明,该方案相比完全使用全同态加密操作的协议,能够获得更快的计算结果。
Oct, 2023
合作式机器学习及联邦学习等技术让多个参与者通过本地训练和定期更新模型来建立一个联合模型,但我们展示了这些更新泄露了关于参与者训练数据的信息并开发了被动和主动攻击来利用泄露,我们在各种任务,数据集和学习配置中评估我们的攻击,并分析其局限性和可能的防御。
May, 2018
研究利用安全多方计算技术,设计和实现了多个安全多方计算友好的机器学习基元,包括类别权重调整和可并行近似激活函数,以解决在基因组研究中由于涉及到多方数据协作,数据隐私和机密性等问题。该研究在 iDASH2019 安全基因组分析竞赛的第四组别获得第一名。
Feb, 2020