基于概率波动的生成模型成员推断攻击
通过发现训练实例可能对模型造成的独特影响,我们发现过度拟合是 Membership Inference Attack(MIA)成功的一个必要条件而不是充分条件,提出了一种新的 generalized MIA(GMIA)及其用于攻击机器学习模型中存在的脆弱示例的技术,结果显示现有的泛化技术无法有效保护这些脆弱示例。
Feb, 2018
基于自校准概率变异的成员推断攻击(SPV-MIA)提出了一种新的对严格微调但无过拟合和隐私保护的 LLMs 泄露隐私的成员推断攻击方法。
Nov, 2023
会员推断攻击可以揭示出某个特定数据点是否属于训练数据集,并潜在地暴露个人敏感信息。本文探讨了与机器学习模型上的会员推断攻击相关的基本统计限制。具体而言,我们首先推导了统治这类攻击的有效性与成功的统计量。然后,我们研究了几种情况,并提供了对这个感兴趣的统计量的上下界。这使得我们能够推导出攻击的准确性与样本数量以及学习模型的其他结构参数之间的关系,在某些情况下,这些参数可以直接根据数据集进行估计。
Oct, 2023
本文提出了一种改进的批量生成攻击数据集的增强型会员推断攻击(MIA-BAD)方法,研究了批量生成攻击数据集对 MIA 方法准确性的影响,以及如何通过联邦学习(FL)方法减轻 MIA-BAD 引入的威胁,并通过大量实验展示了 MIA-BAD 方法的定性效果。
Nov, 2023
研究了针对深度神经网络的成员推理攻击,提出了对复杂数据集 LiRA 和 EMIA 的补救方法,并提出了一种新的攻击方法 AMIA 和 E-AMIA,同时引入了一些增强指示标志及新的评估指标。
Jul, 2023
通过利用输入和其扰动的语义内容,我们引入了一种新的方法 —— 语义成员推断攻击(SMIA),从而提高成员推断攻击(MIAs)的性能。我们使用维基百科数据集对 Pythia 和 GPT-Neo 模型家族进行了全面评估,结果表明 SMIA 在 AUC-ROC 方面显著优于现有的 MIAs,例如,与第二好的攻击相比,SMIA 在 Pythia-12B 上实现了 67.39% 的 AUC-ROC,而第二好的攻击仅为 58.90%。
Jun, 2024
本文研究了在考虑统计依赖性的情况下,Differentially Private 训练算法在 Membership Inference Attack 防御中的可行性,发现在存在依赖性的情况下,DP 无法提供有效保护。作者通过对离线对攻击的实验表明,数据样本之间的依赖关系严重影响了 Membership Inference Attack 的性能表现。
Oct, 2020
该论文分析了成员推理攻击的成功因素,发现数据集和训练模型的多个属性共同影响攻击成功率,提出使用这些属性作为正则化器以保护机器学习模型免受攻击。经实验证明,该方法可将攻击准确率降低多达 25%,而不影响机器学习模型的预测效果。
Feb, 2020