研究了针对深度神经网络的成员推理攻击,提出了对复杂数据集 LiRA 和 EMIA 的补救方法,并提出了一种新的攻击方法 AMIA 和 E-AMIA,同时引入了一些增强指示标志及新的评估指标。
Jul, 2023
基于自校准概率变异的成员推断攻击(SPV-MIA)提出了一种新的对严格微调但无过拟合和隐私保护的 LLMs 泄露隐私的成员推断攻击方法。
Nov, 2023
模拟结果表明,会员推理攻击的效果可以很好地通过得出的分析边界进行预测。
Feb, 2024
我们应用最先进的成员推理攻击方法,系统地测试了对大型图像分类模型进行微调时的实际隐私漏洞,重点在于了解使其易受成员推理攻击的数据集和样本的特性。就数据集的特性而言,我们发现数据集中每个类别的示例数量与成员推理攻击的脆弱性之间存在强烈的幂律依赖性,通过攻击的真阳率在低假阳率下衡量。对于单个样本来说,在训练结束时较大的梯度与成员推理攻击的脆弱性存在强相关性。
本文研究了在考虑统计依赖性的情况下,Differentially Private 训练算法在 Membership Inference Attack 防御中的可行性,发现在存在依赖性的情况下,DP 无法提供有效保护。作者通过对离线对攻击的实验表明,数据样本之间的依赖关系严重影响了 Membership Inference Attack 的性能表现。
Oct, 2020
探索深度学习模型对隐私泄露的影响及规避方法,并评估不同正则化机制对防御成员推理攻击的有效性与隐私保护性。
Jun, 2020
本文提出了一种改进的批量生成攻击数据集的增强型会员推断攻击(MIA-BAD)方法,研究了批量生成攻击数据集对 MIA 方法准确性的影响,以及如何通过联邦学习(FL)方法减轻 MIA-BAD 引入的威胁,并通过大量实验展示了 MIA-BAD 方法的定性效果。
通过演示对课程学习的影响,我们的研究填补了对机器学习隐私泄露的缺乏评估。我们发现,课程学习对会员推理攻击更加有效,但对属性推理攻击的影响较小。我们还提出了一种新的会员推理攻击方法以及针对课程学习的防御解决方案。
Oct, 2023
会员推断攻击可以揭示出某个特定数据点是否属于训练数据集,并潜在地暴露个人敏感信息。本文探讨了与机器学习模型上的会员推断攻击相关的基本统计限制。具体而言,我们首先推导了统治这类攻击的有效性与成功的统计量。然后,我们研究了几种情况,并提供了对这个感兴趣的统计量的上下界。这使得我们能够推导出攻击的准确性与样本数量以及学习模型的其他结构参数之间的关系,在某些情况下,这些参数可以直接根据数据集进行估计。
该论文分析了成员推理攻击的成功因素,发现数据集和训练模型的多个属性共同影响攻击成功率,提出使用这些属性作为正则化器以保护机器学习模型免受攻击。经实验证明,该方法可将攻击准确率降低多达 25%,而不影响机器学习模型的预测效果。
Feb, 2020