该研究通过提出一个正式定义的分布推断攻击概念,研究了不同分布和攻击方法之间的表现差异,揭示了通过建立的度量方法可以量化泄漏,并发现了一些攻击的非对称性。
Sep, 2021
本文提出了一种形式化且通用的财产推断攻击定义,该定义描述能够区分可能的训练分布的攻击,并展示了如何将先前的财产推断攻击和新的攻击捕获在该定义中,并为揭示潜在风险的实验提供了见解。
Jun, 2021
本文首次全面评估不同推断攻击对机器学习模型的威胁,研究了四种攻击(成员推断,模型反演,属性推断和模型窃取)的威胁模型分类,并通过实验评估了不同数据集和模型结构的表现和防御措施的有效性。
Feb, 2021
该论文通过对机器学习模型逐一评估,探究其在会员隐私方面存在的风险。研究表明,攻击模型的效果主要由数据驱动,受数据集的影响较大。在攻击过程中,抗攻击模型的选择和参与者的数量也是影响因素之一。最后,论文给出了相应的对策和缓解策略。
Jun, 2018
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
通过仅利用目标生成模型的生成分布和辅助非成员数据集,我们提出了对各种生成模型(如生成对抗网络、变分自编码器、隐式函数和新兴的扩散模型)的第一个广义成员推断攻击,验证了所有生成模型都对我们的攻击易受攻击,我们呼吁设计和发布生成模型时要注意此类隐私泄漏风险。
Oct, 2023
该研究关注于机器学习模型中有关成员推断攻击的问题,并提出了一种新的会员推断技术 —— 抽样攻击,进一步研究了两种最近的攻击模型以及针对这些攻击的防御方法,最终发现在预测输出时的输出微扰技术是一种简单易行的隐私保护方法,对预测结果的影响较小。
Sep, 2020
本文通过设计基于参数和白盒成员推理攻击算法,分别对中央化和联邦学习场景下的深度学习模型进行隐私分析,揭示了深度学习模型对训练数据隐私的泄露问题以及这一问题的原因,并展示了白盒成员推理攻击算法在 CIFAR 数据集上具体的实验效果。
Dec, 2018
成员推断攻击是为了确定一个特定的示例是否被用于训练,采用黑盒访问已训练模型。我们引入了一种新类型的攻击,基于对在训练中未使用的数据上由被攻击模型诱导的置信分数的分位回归。我们通过大量的实验展示了该方法在各种数据集和模型架构上的有效性。
Jul, 2023
本文提出一种黑盒对抗攻击算法,通过在输入的小区域内查找概率密度分布,不需要访问 DNN 的内部层或权重,实现了成功攻击不同神经网络的目标。此方法表现出色,可用于测试防御技术。结果表明,对抗训练仍然是最佳的防御技术之一。
May, 2019