标签曝光中的成员信息泄漏
本文介绍了一种基于标签的会员推理攻击方法,通过对模型预测标签进行扰动来获取精细的成员信号,该攻击未被置换机密度分数的防御措施所挫败,仅采用差分隐私和(强)L2 正则化等防御策略才能有效地抵御所有攻击。
Jul, 2020
本文通过对机器学习模型泄露个人数据记录的数量进行定量研究,并聚焦于基本的成员推理攻击,利用对手方机器学习技术来训练自己的推理模型,识别目标模型在训练和未训练输入上的预测差异,我们评估了这种推理技术对各种分类模型的影响,包括敏感医院出院数据集,发现这些模型容易受到成员攻击,并探讨影响泄漏的因素并评估缓解策略。
Oct, 2016
本文提出了一种新的多目标适应性标签仅会员推断攻击方法,使用多目标 HopSkipJump 算法,将所有目标类别的决策边界距离遍历,在早期攻击迭代中,随后的攻击迭代继续使用最短的决策边界距离,而不是使用单一的边界距离,来区分训练集内的成员样本和训练集外的非成员样本。实验结果表明,相对于当前的标签仅会员推断攻击,在 CIFAR10 和 CIFAR100 数据集上,我们的多任务 HopSkipJump 算法在几乎所有样本中都成功地实现了最优决策边界,并且我们的多类适应性 MIA 在真阳性率低时达到了极佳的性能。
Jun, 2023
本文提出了针对机器学习服务的会员推理攻击的可能性,并放宽了先前攻击假设中的关键假设,说明这些攻击的适用性广泛且代价低廉,从而比先前认为的更具严重性;提出了对抗此类攻击的第一种有效机制,并保持模型的高效性。
Jun, 2018
本文研究了基于迁移学习模型的成员推断攻击,采用了影子模型训练策略,通过实验结果展示了成员推断攻击的有效性,并揭示了机器学习模型在实践中存在的成员隐私泄露风险。
Sep, 2020
该论文通过对机器学习模型逐一评估,探究其在会员隐私方面存在的风险。研究表明,攻击模型的效果主要由数据驱动,受数据集的影响较大。在攻击过程中,抗攻击模型的选择和参与者的数量也是影响因素之一。最后,论文给出了相应的对策和缓解策略。
Jun, 2018
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
本文首次对机器学习中的成员推理攻击及其防御措施进行了全面调查,提供了攻击和防御的分类学及其优缺点,并指出了相关领域的研究限制和未来方向,为研究社区提供了参考。
Mar, 2021
该研究关注于机器学习模型中有关成员推断攻击的问题,并提出了一种新的会员推断技术 —— 抽样攻击,进一步研究了两种最近的攻击模型以及针对这些攻击的防御方法,最终发现在预测输出时的输出微扰技术是一种简单易行的隐私保护方法,对预测结果的影响较小。
Sep, 2020