本文研究机器学习与深度学习对隐私的威胁,提出了一种测量训练数据泄露的方法以及针对成员推断攻击的新型防御机制,并通过实验数据支持了研究的结论。
Jul, 2022
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
本文通过对机器学习模型泄露个人数据记录的数量进行定量研究,并聚焦于基本的成员推理攻击,利用对手方机器学习技术来训练自己的推理模型,识别目标模型在训练和未训练输入上的预测差异,我们评估了这种推理技术对各种分类模型的影响,包括敏感医院出院数据集,发现这些模型容易受到成员攻击,并探讨影响泄漏的因素并评估缓解策略。
Oct, 2016
模拟结果表明,会员推理攻击的效果可以很好地通过得出的分析边界进行预测。
Feb, 2024
本文探讨了使用 MI 攻击来检测敏感数据泄露的问题,结果发现 MI 攻击容易被挑战其可靠性,并提出一种新的算法,将假阳性率提高至数千倍。
Dec, 2022
会员推断攻击可以揭示出某个特定数据点是否属于训练数据集,并潜在地暴露个人敏感信息。本文探讨了与机器学习模型上的会员推断攻击相关的基本统计限制。具体而言,我们首先推导了统治这类攻击的有效性与成功的统计量。然后,我们研究了几种情况,并提供了对这个感兴趣的统计量的上下界。这使得我们能够推导出攻击的准确性与样本数量以及学习模型的其他结构参数之间的关系,在某些情况下,这些参数可以直接根据数据集进行估计。
Oct, 2023
研究了针对深度神经网络的成员推理攻击,提出了对复杂数据集 LiRA 和 EMIA 的补救方法,并提出了一种新的攻击方法 AMIA 和 E-AMIA,同时引入了一些增强指示标志及新的评估指标。
Jul, 2023
本文介绍了一种基于标签的会员推理攻击方法,通过对模型预测标签进行扰动来获取精细的成员信号,该攻击未被置换机密度分数的防御措施所挫败,仅采用差分隐私和(强)L2 正则化等防御策略才能有效地抵御所有攻击。
Jul, 2020
本文研究了在使用机器学习模型提供服务时出现的数据隐私问题,尤其是会员推理攻击和属性推理攻击,并发现基于成员推理攻击的模型很少容易受到属性推理攻击,但是基于近似属性推理的攻击可以获取接近真实属性的结果。
Mar, 2021
本文提出了基于决策的成员推理攻击方法,证明了仅利用标签信息的模型也容易受到成员泄漏攻击,并且开发了两种决策攻击类型:转移攻击和边界攻击。最后,我们评估多种防御机制,并展示了我们提出的两种攻击方式可以绕过大部分防御。