隐私保护机器学习的高效抗辍学聚合
分布式学习是机器学习中一种新颖的范例,通过在客户端之间分发训练数据而不进行集中聚合来提升可扩展性和效率。本文提出了三种基于秘密共享的抗丢失模型的隐私保护方法,通过在多个数据集上进行实验评估了这些方法的效率、性能和准确性。实验结果表明,我们的方法在保护隐私和抵御客户端丢失的场景中表现显著优于传统方法,尤其适用于大型模型、较高的丢失率和复杂的客户端网络。
Apr, 2024
这项工作主要关注机器学习模型的训练阶段,在这个阶段对用户数据的隐私保护至关重要。我们提供了坚实的理论背景,以便更容易理解当前方法及其局限性。此外,我们对最新的模型训练框架进行了详细比较,提供了在标准基准上独特属性和性能的全面对比。我们重现了一些论文的结果,并考察现有作品对开放科学的支持程度,认为我们的工作就提高了关于隐私保护机器学习在理论进展和实际应用之间差距的意识,特别是在开放源代码可用性、可重复性和可用性方面。
Mar, 2024
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
这项研究回顾了在联邦学习系统中应用的 PPAgg 协议,并对构建 PPAgg 协议的优缺点进行了广泛分析,同时讨论了支持 PPAgg 的开源 FL 框架,强调了将 PPAgg 应用于 FL 系统并将其与其他技术相结合以进一步提高安全性的重要挑战和未来研究方向。
Mar, 2022
该论文提出了一个在混淆模型下更高效的隐私安全的聚合协议,可以使得通信量和误差只呈对数级增长,并且采用了一个称为 ' 隐身斗篷 ' 的新技术来实现此目的,该技术可以使得每个数据项与噪声几乎不可区分,同时对总和不会造成任何扭曲。
Jun, 2019
本文介绍了一种基于安全外包计算的隐私保护机器学习方法,BLAZE,适用于线性回归、逻辑回归和神经网络等常用机器学习算法,实现了更好的安全性和更快的运行速度,在 WAN 和 LAN 设置下,性能明显优于 ABY3。
May, 2020
本文针对协作分析中隐私和数据共享的矛盾之处,以随机森林为例,探讨了保护隐私的机器学习模型问题,并提出了一种新的集成学习方法,通过实验数据表明了新方法的高效性和潜在的准确性好处,能够用于在临床决策支持中预测模型的学习中。
Nov, 2018
以保护隐私和安全的机器学习模型为目标,我们提出了一种基于混合同态加密方案的隐私保护机器学习方法,通过使用混合同态加密构建安全的分类结果学习模型,同时保护输入数据和机器学习模型的隐私。我们通过开发和评估一个基于混合同态加密的隐私保护机器学习应用程序,用于基于敏感心电图数据的心脏疾病分类,证明了我们方法的实际可行性。这种混合同态加密方案的成功整合为相对受限的末端设备上的机器学习提供了一个更安全、更注重隐私的未来展望。
Jan, 2024
该研究提出了 COPML 算法,这是一个完全去中心化的训练框架,可以保护数据隐私并实现可伸缩性,使用对个体数据进行安全编码的方式在多方之间分发计算负载,并以分布式方式执行训练计算和模型更新。实验演示了 COPML 相较于基准协议在训练速度上可实现高达 16 倍的加速。
Nov, 2020
合作机器学习允许参与者在保护私人训练数据的同时,共同训练一个机器学习模型。研究人员提出使用强大的聚合器来过滤可能危及训练过程的恶意贡献,但我们的研究表明现有的强大的聚合器无法实现其目标,因为它们要么使用无法准确识别恶意更新的基于距离的指标,要么提出的方法与参与者从其他人那里学习的能力相冲突,因此无法排除操纵的风险。
Feb, 2024