当机器学习遇到隐私:一份调查与展望
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
该论文在 Saltzer 和 Schroeder 1970 年代的经验教训下,回顾了最近关于隐私的两篇研究文章,并探讨了新技术在保护机器学习所依赖的数据隐私方面的应用。
Aug, 2017
本文综述了隐私保护机器学习在医疗保健领域中的应用,主要关注隐私保护的训练和推断,总结了现有趋势,识别了挑战,并讨论了未来研究方向。研究旨在引导隐私和高效的机器学习模型在医疗保健中的应用,并将研究成果转化为现实应用。
Mar, 2023
在图机器学习中,数据的收集、共享和分析往往涉及多个参与方,每个参与方可能需要不同级别的数据安全和隐私保护。为此,在保护敏感信息方面,保持隐私非常重要。在大数据时代,数据实体之间的关系变得前所未有的复杂,越来越多的应用程序利用了支持网络结构和相关属性信息的先进数据结构(即图)。迄今为止,许多基于图的人工智能通过生成隐私保护图数据的方法和传输隐私保护信息(例如图模型参数)的方法来实现基于优化的计算,当在多个参与方之间共享数据是有风险或不可能时。除了讨论相关的理论方法和软件工具外,我们还讨论了当前的挑战,并突出了隐私保护图机器学习的若干未来研究机会。最后,我们构想了一个统一而综合的安全图机器学习系统。
Jul, 2023
人工智能的发展显著改变了人们的生活,但也对隐私和安全构成了重大威胁。因此,通过机器学习算法实现个人信息的智能保护已成为一项重要关注点。本文着重于个人数据隐私保护和匿名化的核心研究目标,通过使用机器学习的差分隐私保护算法,实现个人数据隐私保护和检测,并解决与隐私和个人数据保护相关的现有挑战,提出改进建议,分析影响数据集的因素以实现及时的个人数据隐私检测和保护。
Feb, 2024