成员推断攻击的不同脆弱性
本文通过定义新的指标来反映数据点在多重成员推断攻击下的脆弱性,从而捕捉多次攻击和不同目标模型下的脆弱数据点。作者运用可扩展性和灵活性的会员推断攻击平台 (VMIAP) 实现 54 次成员推断攻击,发现攻击模型对某些数据点情有独钟,同时发现数据点的脆弱性与攻击模型和目标模型有关。
Oct, 2022
以公平性方法、成员推断攻击、预测差距、公平性增强模型和隐私泄露为关键词,本文提出了一种基于公平性差异结果的高效成员推断攻击方法(FD-MIA),利用原始模型和公平性增强模型之间的预测差异和观察到的预测差距作为攻击线索,同时探索了减少隐私泄露的潜在策略。大量实验证实了我们的发现并证明了该方法的有效性。
Nov, 2023
通过发现训练实例可能对模型造成的独特影响,我们发现过度拟合是 Membership Inference Attack(MIA)成功的一个必要条件而不是充分条件,提出了一种新的 generalized MIA(GMIA)及其用于攻击机器学习模型中存在的脆弱示例的技术,结果显示现有的泛化技术无法有效保护这些脆弱示例。
Feb, 2018
会员推断攻击可以揭示出某个特定数据点是否属于训练数据集,并潜在地暴露个人敏感信息。本文探讨了与机器学习模型上的会员推断攻击相关的基本统计限制。具体而言,我们首先推导了统治这类攻击的有效性与成功的统计量。然后,我们研究了几种情况,并提供了对这个感兴趣的统计量的上下界。这使得我们能够推导出攻击的准确性与样本数量以及学习模型的其他结构参数之间的关系,在某些情况下,这些参数可以直接根据数据集进行估计。
Oct, 2023
本文研究了在考虑统计依赖性的情况下,Differentially Private 训练算法在 Membership Inference Attack 防御中的可行性,发现在存在依赖性的情况下,DP 无法提供有效保护。作者通过对离线对攻击的实验表明,数据样本之间的依赖关系严重影响了 Membership Inference Attack 的性能表现。
Oct, 2020
该论文分析了成员推理攻击的成功因素,发现数据集和训练模型的多个属性共同影响攻击成功率,提出使用这些属性作为正则化器以保护机器学习模型免受攻击。经实验证明,该方法可将攻击准确率降低多达 25%,而不影响机器学习模型的预测效果。
Feb, 2020
本文首次对机器学习中的成员推理攻击及其防御措施进行了全面调查,提供了攻击和防御的分类学及其优缺点,并指出了相关领域的研究限制和未来方向,为研究社区提供了参考。
Mar, 2021
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
本文研究了基于扩散的生成模型对成员隐私的攻击风险,提出了一种新的黑盒成员隐私攻击方法 SecMI,并通过对标准扩散模型和文本 - 图像扩散模型等不同数据的实验结果展示其高准确性。
Feb, 2023
使用权重初始化作为唯一的随机源,我们提出了一种新的、特定的用于对 ML 模型的成员识别攻击(MIAs)进行评估的设置,从而准确评估了与特定数据集训练的模型的发布相关的风险。
May, 2024