论会员推断攻击中难度校准的重要性
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
该论文研究深度学习中的成员推理攻击,指出现有攻击方法的报告中存在高误报率 (FAR) 和针对误分样本的较弱识别能力,并探索了距离决策边界和梯度范数等新特征,证明其对误分类样本分类能力普遍一般,最后通过多项实验证明了现有的 MI 攻击较难同时实现高准确率和低 FAR。
May, 2020
该研究关注于机器学习模型中有关成员推断攻击的问题,并提出了一种新的会员推断技术 —— 抽样攻击,进一步研究了两种最近的攻击模型以及针对这些攻击的防御方法,最终发现在预测输出时的输出微扰技术是一种简单易行的隐私保护方法,对预测结果的影响较小。
Sep, 2020
该研究论文介绍了一种新的方法来评估数据点在模型的训练集中的成员资格,并利用机器学习模型生成的分类置信度值和无需知道给定数据点的真实类别的变体方法进行成员推断攻击。
Nov, 2023
通过使用基于学习的困难度校准方法,我们提出了一种新的成员推理攻击(Membership Inference Attacks)方法,以显著提高真正正例率(TPR)在低假正例率(FPR)下的性能。
Jan, 2024
本研究通过对深度神经网络如何发生过拟合的新认识,研究了成员推断攻击,并展示了如何利用模型的内部来提供攻击者成员身份的证据,该攻击方法可校准,并可以有效地进行高精度的成员推论。同时,对于流行的成员推断攻击防御方法,发现较小的一阶差分隐私并不能防止攻击,而较大的隐私预算则使得攻击几乎具有与未受保护的模型相同的准确性。
Jun, 2019