仅标签成员推断攻击
本文提出了基于决策的成员推理攻击方法,证明了仅利用标签信息的模型也容易受到成员泄漏攻击,并且开发了两种决策攻击类型:转移攻击和边界攻击。最后,我们评估多种防御机制,并展示了我们提出的两种攻击方式可以绕过大部分防御。
Jul, 2020
本文提出了一种新的多目标适应性标签仅会员推断攻击方法,使用多目标 HopSkipJump 算法,将所有目标类别的决策边界距离遍历,在早期攻击迭代中,随后的攻击迭代继续使用最短的决策边界距离,而不是使用单一的边界距离,来区分训练集内的成员样本和训练集外的非成员样本。实验结果表明,相对于当前的标签仅会员推断攻击,在 CIFAR10 和 CIFAR100 数据集上,我们的多任务 HopSkipJump 算法在几乎所有样本中都成功地实现了最优决策边界,并且我们的多类适应性 MIA 在真阳性率低时达到了极佳的性能。
Jun, 2023
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
本文通过对机器学习模型泄露个人数据记录的数量进行定量研究,并聚焦于基本的成员推理攻击,利用对手方机器学习技术来训练自己的推理模型,识别目标模型在训练和未训练输入上的预测差异,我们评估了这种推理技术对各种分类模型的影响,包括敏感医院出院数据集,发现这些模型容易受到成员攻击,并探讨影响泄漏的因素并评估缓解策略。
Oct, 2016
该论文通过对机器学习模型逐一评估,探究其在会员隐私方面存在的风险。研究表明,攻击模型的效果主要由数据驱动,受数据集的影响较大。在攻击过程中,抗攻击模型的选择和参与者的数量也是影响因素之一。最后,论文给出了相应的对策和缓解策略。
Jun, 2018
该研究关注于机器学习模型中有关成员推断攻击的问题,并提出了一种新的会员推断技术 —— 抽样攻击,进一步研究了两种最近的攻击模型以及针对这些攻击的防御方法,最终发现在预测输出时的输出微扰技术是一种简单易行的隐私保护方法,对预测结果的影响较小。
Sep, 2020
本文研究了基于迁移学习模型的成员推断攻击,采用了影子模型训练策略,通过实验结果展示了成员推断攻击的有效性,并揭示了机器学习模型在实践中存在的成员隐私泄露风险。
Sep, 2020
本文研究了在使用机器学习模型提供服务时出现的数据隐私问题,尤其是会员推理攻击和属性推理攻击,并发现基于成员推理攻击的模型很少容易受到属性推理攻击,但是基于近似属性推理的攻击可以获取接近真实属性的结果。
Mar, 2021
本文提出了针对机器学习服务的会员推理攻击的可能性,并放宽了先前攻击假设中的关键假设,说明这些攻击的适用性广泛且代价低廉,从而比先前认为的更具严重性;提出了对抗此类攻击的第一种有效机制,并保持模型的高效性。
Jun, 2018