Sep, 2023

机器学习系统中的隐私侧信道

TL;DR通过引入隐私侧信道攻击,本研究揭示了当前保护机器学习隐私的方法假设模型存在于真空中,然而事实上,机器学习模型是包含用于训练数据过滤、输出监测等组件的更大系统的一部分。文中提出了四类隐私侧信道攻击,涵盖了整个机器学习生命周期,可以用于增强成员推断攻击或者进行提取用户测试查询等新颖威胁。通过实例展示,文中指出在应用差分隐私训练之前对训练数据进行去重造成了一种侧信道攻击,完全破坏了任何可证明的隐私保护保证。此外,研究还发现,阻止语言模型再生成训练数据的系统可以被利用来精确重构出包含在训练集中的私钥,即使模型本身并没有记忆这些私钥。总之,本研究的结果表明需要进行全面的端到端的机器学习隐私分析。