通过自提示校准对精调大型语言模型进行实用的成员推断攻击
成员推理攻击的大规模评估发现在多种设置中,大型语言模型的预训练数据上的成员推理攻击表现较差,主要原因是庞大数据集和较少训练迭代之间的结合,以及成员和非成员之间存在模糊的边界。我们识别出特定的设置,这些设置中语言模型易受成员推理攻击影响,并证明这种成功可以归因于分布变化,例如成员和非成员从看似相同的领域,但具有不同的时间范围。我们提供了代码和数据,形成了一个统一的基准测试套件,包括所有现有的成员推理攻击方案,以支持未来的研究工作。
Feb, 2024
该研究提出了一种基于采样的伪似然方法(SaMIA),通过仅使用大型语言模型生成的文本来计算伪似然,以检测数据泄漏,即使没有似然度,SaMIA 的表现与现有的基于似然度的方法相媲美。
Apr, 2024
通过使用基于学习的困难度校准方法,我们提出了一种新的成员推理攻击(Membership Inference Attacks)方法,以显著提高真正正例率(TPR)在低假正例率(FPR)下的性能。
Jan, 2024
本文首次对机器学习中的成员推理攻击及其防御措施进行了全面调查,提供了攻击和防御的分类学及其优缺点,并指出了相关领域的研究限制和未来方向,为研究社区提供了参考。
Mar, 2021
我们提出了一种概率波动评估成员推理攻击(PFAMI),通过分析给定记录周围的整体概率波动趋势来检测这些趋势,从而推断成员身份的黑盒式攻击,实验证明 PFAMI 相对于最佳基线可以提高攻击成功率(ASR)约 27.9%。
Aug, 2023
利用余弦相似度阈值和弱监督攻击方法,对多模式模型进行成员推断攻击,研究表明 CLIP 模型容易受到攻击,而弱监督攻击方法在低误报率下平均性能提高 17%,至少比基准方法有效率提高 7 倍。
Sep, 2023
通过利用输入和其扰动的语义内容,我们引入了一种新的方法 —— 语义成员推断攻击(SMIA),从而提高成员推断攻击(MIAs)的性能。我们使用维基百科数据集对 Pythia 和 GPT-Neo 模型家族进行了全面评估,结果表明 SMIA 在 AUC-ROC 方面显著优于现有的 MIAs,例如,与第二好的攻击相比,SMIA 在 Pythia-12B 上实现了 67.39% 的 AUC-ROC,而第二好的攻击仅为 58.90%。
Jun, 2024
大语言模型在现实世界中的大量使用产生了对公司以未经许可的方式在互联网上训练模型的版权纠纷。本文提出了一种新的数据集推断方法来准确识别用于训练大语言模型的数据集,成功地区分了不同子集的 Pile 数据集的训练集和测试集,无任何错误的正例。
Jun, 2024