机器学习中隐私攻击调查
本文对机器学习与隐私问题进行了综述,涵盖了三种交互方式:(i) 私有机器学习,(ii) 机器学习辅助隐私保护,以及 (iii) 基于机器学习的隐私攻击和相应的保护方案,总结了各个领域内的研究进展和关键挑战,并提出了未来的研究方向。
Nov, 2020
该研究讨论了机器学习算法的威胁模型,提出了三个解决方案:验证和准入控制、可靠的攻击记录机制和安全与隐私的形式化框架,通过这些方案来设计出较好的机器学习系统。
Nov, 2018
本文研究了机器学习模型的隐私风险和成员推理攻击,提出了一种基于预测熵修改的推理攻击和一个新的隐私风险得分指标,同时对已有的防御机制进行了基准攻击,实验结果表明个体样本的隐私风险得分分布差异很大,同时确定源风险的主要因素与模型敏感性、综合误差和特征嵌入有关系。
Mar, 2020
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
本篇论文探讨了机器学习算法在敏感数据应用时对隐私的威胁,分析了过拟合和影响因素对攻击者从训练数据中提取信息的能力的影响,并研究了成员推断和属性推断之间的联系。
Sep, 2017
该论文在 Saltzer 和 Schroeder 1970 年代的经验教训下,回顾了最近关于隐私的两篇研究文章,并探讨了新技术在保护机器学习所依赖的数据隐私方面的应用。
Aug, 2017
分析了机器学习中的推断攻击及相应的对策,提出了 3MP 分类系统以规范命名,探讨了各类推断攻击的优缺点、工作流程以及与其他攻击的相互作用,并从一个更全面且新颖的角度指出了几个有前景的研究方向。
Jun, 2024