隐私保护机器学习:威胁与解决方案
本文对机器学习与隐私问题进行了综述,涵盖了三种交互方式:(i) 私有机器学习,(ii) 机器学习辅助隐私保护,以及 (iii) 基于机器学习的隐私攻击和相应的保护方案,总结了各个领域内的研究进展和关键挑战,并提出了未来的研究方向。
Nov, 2020
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
该论文在 Saltzer 和 Schroeder 1970 年代的经验教训下,回顾了最近关于隐私的两篇研究文章,并探讨了新技术在保护机器学习所依赖的数据隐私方面的应用。
Aug, 2017
本文综述了隐私保护机器学习在医疗保健领域中的应用,主要关注隐私保护的训练和推断,总结了现有趋势,识别了挑战,并讨论了未来研究方向。研究旨在引导隐私和高效的机器学习模型在医疗保健中的应用,并将研究成果转化为现实应用。
Mar, 2023
在图机器学习中,数据的收集、共享和分析往往涉及多个参与方,每个参与方可能需要不同级别的数据安全和隐私保护。为此,在保护敏感信息方面,保持隐私非常重要。在大数据时代,数据实体之间的关系变得前所未有的复杂,越来越多的应用程序利用了支持网络结构和相关属性信息的先进数据结构(即图)。迄今为止,许多基于图的人工智能通过生成隐私保护图数据的方法和传输隐私保护信息(例如图模型参数)的方法来实现基于优化的计算,当在多个参与方之间共享数据是有风险或不可能时。除了讨论相关的理论方法和软件工具外,我们还讨论了当前的挑战,并突出了隐私保护图机器学习的若干未来研究机会。最后,我们构想了一个统一而综合的安全图机器学习系统。
Jul, 2023
该研究讨论了机器学习算法的威胁模型,提出了三个解决方案:验证和准入控制、可靠的攻击记录机制和安全与隐私的形式化框架,通过这些方案来设计出较好的机器学习系统。
Nov, 2018
本文讨论了机器学习和差分隐私之间的相互作用,即隐私保护机器学习算法和基于学习的数据发布机制,探讨了可以通过差分隐私进行学习的内容以及差分隐私算法的损失函数上限。同时提出了一些开放性问题,包括如何整合公共数据,如何处理私人数据集中的缺失数据,以及当观察样本数量任意增大时,是否可以实现差分隐私机器学习算法而无需牺牲相关算法的效用成本。
Dec, 2014