形式化与估算分布推断风险
本文提出了一种形式化且通用的财产推断攻击定义,该定义描述能够区分可能的训练分布的攻击,并展示了如何将先前的财产推断攻击和新的攻击捕获在该定义中,并为揭示潜在风险的实验提供了见解。
Jun, 2021
本文研究了分布推理攻击的影响,并开发了一种新的黑盒攻击模型,并评估了不同假设下的推理风险并提出了新的防御措施,发现抗噪防御似乎不起作用,但简单的重新取样防御可以高度有效。
Dec, 2022
本文首次全面评估不同推断攻击对机器学习模型的威胁,研究了四种攻击(成员推断,模型反演,属性推断和模型窃取)的威胁模型分类,并通过实验评估了不同数据集和模型结构的表现和防御措施的有效性。
Feb, 2021
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
该论文通过对机器学习模型逐一评估,探究其在会员隐私方面存在的风险。研究表明,攻击模型的效果主要由数据驱动,受数据集的影响较大。在攻击过程中,抗攻击模型的选择和参与者的数量也是影响因素之一。最后,论文给出了相应的对策和缓解策略。
Jun, 2018
本研究讨论了对抗者攻击在训练数据中恶意注入攻击数据(即污染数据),从而提高模型信息泄漏,并成功实现了基于属性推断的攻击方法。在两个数据集上的实验中,攻击准确率在 90% 以上,污染率在 9-10% 之间。
Jan, 2021
本文提出了一种名为 $dataset$ $inference$ 的防御机制,旨在解决目前存在的模型盗窃问题,该机制结合了统计测试和多个数据点到决策边界的距离估计来实现对原始模型数据集保护,实验证明该机制可以成功地对抗目前最先进的攻击方式,并且无需对被保护的模型进行重新训练或过度拟合。
Apr, 2021
通过仅利用目标生成模型的生成分布和辅助非成员数据集,我们提出了对各种生成模型(如生成对抗网络、变分自编码器、隐式函数和新兴的扩散模型)的第一个广义成员推断攻击,验证了所有生成模型都对我们的攻击易受攻击,我们呼吁设计和发布生成模型时要注意此类隐私泄漏风险。
Oct, 2023
本文研究了在使用机器学习模型提供服务时出现的数据隐私问题,尤其是会员推理攻击和属性推理攻击,并发现基于成员推理攻击的模型很少容易受到属性推理攻击,但是基于近似属性推理的攻击可以获取接近真实属性的结果。
Mar, 2021
本文提出新型的针对机器学习模型的属性推理攻击,通过阴影训练和元分类器方法,从 ML 分类器模型参数中推断训练数据的类标签分布,相较已有攻击手段改进最高可达 52%。
Nov, 2022