不确定性、校准和成员推断攻击:信息论视角
会员推断攻击可以揭示出某个特定数据点是否属于训练数据集,并潜在地暴露个人敏感信息。本文探讨了与机器学习模型上的会员推断攻击相关的基本统计限制。具体而言,我们首先推导了统治这类攻击的有效性与成功的统计量。然后,我们研究了几种情况,并提供了对这个感兴趣的统计量的上下界。这使得我们能够推导出攻击的准确性与样本数量以及学习模型的其他结构参数之间的关系,在某些情况下,这些参数可以直接根据数据集进行估计。
Oct, 2023
通过使用基于学习的困难度校准方法,我们提出了一种新的成员推理攻击(Membership Inference Attacks)方法,以显著提高真正正例率(TPR)在低假正例率(FPR)下的性能。
Jan, 2024
基于自校准概率变异的成员推断攻击(SPV-MIA)提出了一种新的对严格微调但无过拟合和隐私保护的 LLMs 泄露隐私的成员推断攻击方法。
Nov, 2023
该研究论文介绍了一种新的方法来评估数据点在模型的训练集中的成员资格,并利用机器学习模型生成的分类置信度值和无需知道给定数据点的真实类别的变体方法进行成员推断攻击。
Nov, 2023
该论文分析了成员推理攻击的成功因素,发现数据集和训练模型的多个属性共同影响攻击成功率,提出使用这些属性作为正则化器以保护机器学习模型免受攻击。经实验证明,该方法可将攻击准确率降低多达 25%,而不影响机器学习模型的预测效果。
Feb, 2020
本文通过定义新的指标来反映数据点在多重成员推断攻击下的脆弱性,从而捕捉多次攻击和不同目标模型下的脆弱数据点。作者运用可扩展性和灵活性的会员推断攻击平台 (VMIAP) 实现 54 次成员推断攻击,发现攻击模型对某些数据点情有独钟,同时发现数据点的脆弱性与攻击模型和目标模型有关。
Oct, 2022
通过发现训练实例可能对模型造成的独特影响,我们发现过度拟合是 Membership Inference Attack(MIA)成功的一个必要条件而不是充分条件,提出了一种新的 generalized MIA(GMIA)及其用于攻击机器学习模型中存在的脆弱示例的技术,结果显示现有的泛化技术无法有效保护这些脆弱示例。
Feb, 2018
使用权重初始化作为唯一的随机源,我们提出了一种新的、特定的用于对 ML 模型的成员识别攻击(MIAs)进行评估的设置,从而准确评估了与特定数据集训练的模型的发布相关的风险。
May, 2024