通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
该论文通过对机器学习模型逐一评估,探究其在会员隐私方面存在的风险。研究表明,攻击模型的效果主要由数据驱动,受数据集的影响较大。在攻击过程中,抗攻击模型的选择和参与者的数量也是影响因素之一。最后,论文给出了相应的对策和缓解策略。
Jun, 2018
本研究通过对深度神经网络如何发生过拟合的新认识,研究了成员推断攻击,并展示了如何利用模型的内部来提供攻击者成员身份的证据,该攻击方法可校准,并可以有效地进行高精度的成员推论。同时,对于流行的成员推断攻击防御方法,发现较小的一阶差分隐私并不能防止攻击,而较大的隐私预算则使得攻击几乎具有与未受保护的模型相同的准确性。
Jun, 2019
本文通过对机器学习模型泄露个人数据记录的数量进行定量研究,并聚焦于基本的成员推理攻击,利用对手方机器学习技术来训练自己的推理模型,识别目标模型在训练和未训练输入上的预测差异,我们评估了这种推理技术对各种分类模型的影响,包括敏感医院出院数据集,发现这些模型容易受到成员攻击,并探讨影响泄漏的因素并评估缓解策略。
Oct, 2016
本文探讨了成员推断中的最优策略。我们发现最优攻击仅取决于损失函数,因此黑盒攻击与白盒攻击一样好。通过多种逼近方法,我们的成员攻击在各种设置中均优于现有技术。
Aug, 2019
本文研究机器学习与深度学习对隐私的威胁,提出了一种测量训练数据泄露的方法以及针对成员推断攻击的新型防御机制,并通过实验数据支持了研究的结论。
Jul, 2022
本文研究了在使用机器学习模型提供服务时出现的数据隐私问题,尤其是会员推理攻击和属性推理攻击,并发现基于成员推理攻击的模型很少容易受到属性推理攻击,但是基于近似属性推理的攻击可以获取接近真实属性的结果。
Mar, 2021
该研究关注于机器学习模型中有关成员推断攻击的问题,并提出了一种新的会员推断技术 —— 抽样攻击,进一步研究了两种最近的攻击模型以及针对这些攻击的防御方法,最终发现在预测输出时的输出微扰技术是一种简单易行的隐私保护方法,对预测结果的影响较小。
Sep, 2020
通过统计方法,本文旨在解决隐含特征对攻击效果的影响以及基于原始数据特征的攻击根本原因不足的问题,并提出了一个攻击驱动的可解释框架,通过集成目标和攻击模型,识别导致成功成员推理攻击的原始数据上最具影响力的特征。我们提出的攻击显示了与最先进的攻击技术相比高达 26%的改进。
Jul, 2024
本文研究了基于迁移学习模型的成员推断攻击,采用了影子模型训练策略,通过实验结果展示了成员推断攻击的有效性,并揭示了机器学习模型在实践中存在的成员隐私泄露风险。