仅标签成员推断攻击
本文研究机器学习中的安全和隐私领域,重点探究性会员推断攻击是否会受到对抗性的防御方法的影响,并通过实验验证证明对抗性的防御方法可以增加目标模型的风险。
May, 2019
本文研究了机器学习模型的隐私风险和成员推理攻击,提出了一种基于预测熵修改的推理攻击和一个新的隐私风险得分指标,同时对已有的防御机制进行了基准攻击,实验结果表明个体样本的隐私风险得分分布差异很大,同时确定源风险的主要因素与模型敏感性、综合误差和特征嵌入有关系。
Mar, 2020
本文提出了基于决策的成员推理攻击方法,证明了仅利用标签信息的模型也容易受到成员泄漏攻击,并且开发了两种决策攻击类型:转移攻击和边界攻击。最后,我们评估多种防御机制,并展示了我们提出的两种攻击方式可以绕过大部分防御。
Jul, 2020
该研究关注于机器学习模型中有关成员推断攻击的问题,并提出了一种新的会员推断技术——抽样攻击,进一步研究了两种最近的攻击模型以及针对这些攻击的防御方法,最终发现在预测输出时的输出微扰技术是一种简单易行的隐私保护方法,对预测结果的影响较小。
Sep, 2020
本文研究了基于迁移学习模型的成员推断攻击,采用了影子模型训练策略,通过实验结果展示了成员推断攻击的有效性,并揭示了机器学习模型在实践中存在的成员隐私泄露风险。
Sep, 2020
本文首次对机器学习中的成员推理攻击及其防御措施进行了全面调查,提供了攻击和防御的分类学及其优缺点,并指出了相关领域的研究限制和未来方向,为研究社区提供了参考。
Mar, 2021
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
本文提出了一种新的多目标适应性标签仅会员推断攻击方法,使用多目标HopSkipJump算法,将所有目标类别的决策边界距离遍历,在早期攻击迭代中,随后的攻击迭代继续使用最短的决策边界距离,而不是使用单一的边界距离,来区分训练集内的成员样本和训练集外的非成员样本。实验结果表明,相对于当前的标签仅会员推断攻击,在CIFAR10和CIFAR100数据集上,我们的多任务HopSkipJump算法在几乎所有样本中都成功地实现了最优决策边界,并且我们的多类适应性MIA在真阳性率低时达到了极佳的性能。
Jun, 2023
利用机器学习在多个关键应用中的整合引入了个人提供数据进行模型训练时的隐私问题,其中一个隐私风险是成员推断(Membership Inference)攻击,攻击者试图确定特定数据样本是否包含在模型的训练数据集中。本文关注较少探索且更为现实的仅标签(label-only)设置,其中模型仅提供对查询样本的预测标签,我们发现现有的仅标签成员推断攻击在低误报率(False Positive Rate,FPR)情况下无法有效推断成员身份。我们针对这一挑战提出一种新攻击方法Chameleon,利用一种新颖的自适应数据投毒策略和高效的查询选择方法,在低FPR情况下显著提高了成员推断的准确性,较现有的仅标签攻击更为有效。
Oct, 2023