高效的子人群成员推理攻击
该研究关注于机器学习模型中有关成员推断攻击的问题,并提出了一种新的会员推断技术 —— 抽样攻击,进一步研究了两种最近的攻击模型以及针对这些攻击的防御方法,最终发现在预测输出时的输出微扰技术是一种简单易行的隐私保护方法,对预测结果的影响较小。
Sep, 2020
该论文研究深度学习中的成员推理攻击,指出现有攻击方法的报告中存在高误报率 (FAR) 和针对误分样本的较弱识别能力,并探索了距离决策边界和梯度范数等新特征,证明其对误分类样本分类能力普遍一般,最后通过多项实验证明了现有的 MI 攻击较难同时实现高准确率和低 FAR。
May, 2020
在这篇研究论文中,我们通过使用具有反事实不变性和子空间学习方法的新方法,名为 Membership-Invariant Subspace Training(MIST),有效地防御成员推断攻击。MIST 避免过度拟合易受攻击的实例,同时在不降低测试准确性的情况下超过其它防御机制。
Nov, 2023
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
本文提出了一种新的多目标适应性标签仅会员推断攻击方法,使用多目标 HopSkipJump 算法,将所有目标类别的决策边界距离遍历,在早期攻击迭代中,随后的攻击迭代继续使用最短的决策边界距离,而不是使用单一的边界距离,来区分训练集内的成员样本和训练集外的非成员样本。实验结果表明,相对于当前的标签仅会员推断攻击,在 CIFAR10 和 CIFAR100 数据集上,我们的多任务 HopSkipJump 算法在几乎所有样本中都成功地实现了最优决策边界,并且我们的多类适应性 MIA 在真阳性率低时达到了极佳的性能。
Jun, 2023
本文首次对机器学习中的成员推理攻击及其防御措施进行了全面调查,提供了攻击和防御的分类学及其优缺点,并指出了相关领域的研究限制和未来方向,为研究社区提供了参考。
Mar, 2021
本文提出了基于度量嵌入学习的用户级成员推理攻击,旨在确定目标用户是否曾用于训练,即使攻击者无法获得确切的训练样本。在几个数据集上进行广泛评估,结果表明我们的方法在用户级成员推理任务中取得了高准确度。
Mar, 2022