LOGAN: 针对生成模型的成员资格推理攻击
通过仅利用目标生成模型的生成分布和辅助非成员数据集,我们提出了对各种生成模型(如生成对抗网络、变分自编码器、隐式函数和新兴的扩散模型)的第一个广义成员推断攻击,验证了所有生成模型都对我们的攻击易受攻击,我们呼吁设计和发布生成模型时要注意此类隐私泄漏风险。
Oct, 2023
使用生成对抗网络黑盒设置进行成员推断攻击,探究其对隐私的影响,并发现攻击成功率较其他生成模型和判别模型要低,这呈现出 GAN 是否确实更为私密的有趣问题。
Oct, 2023
本文通过对机器学习模型泄露个人数据记录的数量进行定量研究,并聚焦于基本的成员推理攻击,利用对手方机器学习技术来训练自己的推理模型,识别目标模型在训练和未训练输入上的预测差异,我们评估了这种推理技术对各种分类模型的影响,包括敏感医院出院数据集,发现这些模型容易受到成员攻击,并探讨影响泄漏的因素并评估缓解策略。
Oct, 2016
该论文通过对机器学习模型逐一评估,探究其在会员隐私方面存在的风险。研究表明,攻击模型的效果主要由数据驱动,受数据集的影响较大。在攻击过程中,抗攻击模型的选择和参与者的数量也是影响因素之一。最后,论文给出了相应的对策和缓解策略。
Jun, 2018
通过成员推理攻击作为审核工具,我们提出了一个综合的假设检验框架,不仅能够以一致的方式正式表达先前的工作,还可以设计新的成员推理攻击,使用参考模型来实现任意误报率的显著更高的功率(真正的阳性率),并解释为什么不同的攻击效果不同,并最小化攻击不确定性到数据点的存在或缺失的一个比特秘密。
Nov, 2021
本文提出了一种基于对抗鲁棒性的增强成员推断攻击方法,通过标签平滑调整对抗性扰动的方向,在白盒设置下对 Fashion-MNIST、CIFAR-10 和 CIFAR-100 三种数据集进行了实验,结果表明该方法的性能优于现有的基于对抗性鲁棒性的方法,且在攻击对抗性训练模型方面,更胜一筹。
May, 2022
本文提出了一种隐私保护的生成模型,通过变分自编码器 (VAE) 的信息提取和数据生成能力,生成符合差分隐私要求的合成数据来防御成员推理攻击,并进行了实验验证。
Feb, 2022
评估生成式机器学习模型在身份保护方面的漏洞,并通过设计和测试一种身份推断攻击来验证其有效性。实验结果表明,该解决方案在不同配置下都有效,并且可以轻松扩展到其他生物测量数据集。
Jun, 2024
本文研究了基于迁移学习模型的成员推断攻击,采用了影子模型训练策略,通过实验结果展示了成员推断攻击的有效性,并揭示了机器学习模型在实践中存在的成员隐私泄露风险。
Sep, 2020