我们提出了一种概率波动评估成员推理攻击(PFAMI),通过分析给定记录周围的整体概率波动趋势来检测这些趋势,从而推断成员身份的黑盒式攻击,实验证明 PFAMI 相对于最佳基线可以提高攻击成功率(ASR)约 27.9%。
Aug, 2023
会员推断攻击可以揭示出某个特定数据点是否属于训练数据集,并潜在地暴露个人敏感信息。本文探讨了与机器学习模型上的会员推断攻击相关的基本统计限制。具体而言,我们首先推导了统治这类攻击的有效性与成功的统计量。然后,我们研究了几种情况,并提供了对这个感兴趣的统计量的上下界。这使得我们能够推导出攻击的准确性与样本数量以及学习模型的其他结构参数之间的关系,在某些情况下,这些参数可以直接根据数据集进行估计。
Oct, 2023
基于自校准概率变异的成员推断攻击(SPV-MIA)提出了一种新的对严格微调但无过拟合和隐私保护的 LLMs 泄露隐私的成员推断攻击方法。
Nov, 2023
本文研究了在考虑统计依赖性的情况下,Differentially Private 训练算法在 Membership Inference Attack 防御中的可行性,发现在存在依赖性的情况下,DP 无法提供有效保护。作者通过对离线对攻击的实验表明,数据样本之间的依赖关系严重影响了 Membership Inference Attack 的性能表现。
Oct, 2020
本研究探讨了参考模型攻击在更现实的情况下对数据分布的脆弱性,并提出并评估了领域攻击方法,以提高模型隐私性。
May, 2023
通过发现训练实例可能对模型造成的独特影响,我们发现过度拟合是 Membership Inference Attack(MIA)成功的一个必要条件而不是充分条件,提出了一种新的 generalized MIA(GMIA)及其用于攻击机器学习模型中存在的脆弱示例的技术,结果显示现有的泛化技术无法有效保护这些脆弱示例。
Feb, 2018
本文首次对机器学习中的成员推理攻击及其防御措施进行了全面调查,提供了攻击和防御的分类学及其优缺点,并指出了相关领域的研究限制和未来方向,为研究社区提供了参考。
Mar, 2021
通过引入基于同质子集方法的会员推断攻击方案,本文成功提高了会员推断的准确性,同时极大地降低了对深度模型的计算成本。
Mar, 2022
成员推理攻击(MIAs)对联邦学习中的隐私保护构成了日益严重的威胁。本文评估了现有的 MIAs 和相应的防御策略,并提出了使用数据替换作为一种防御策略来实现隐私保护和模型效用之间的最佳平衡。
Feb, 2024
本文探讨了使用 MI 攻击来检测敏感数据泄露的问题,结果发现 MI 攻击容易被挑战其可靠性,并提出一种新的算法,将假阳性率提高至数千倍。
Dec, 2022