插入播放攻击:朝向强韧与灵活的模型反演攻击
通过基于 Jigsaw 拼图组装的新概率模型和基于 GAN 的分析,Patch-MI 攻击方法能够成功生成与目标数据库分布相似的图片,甚至在辅助数据库分布不相似的情况下,通过随机变换块的巧妙应用,进一步提升目标分类器的效果,从而在保持统计数据集质量的同时,在准确性方面超越了现有的生成 MI 方法,标志着重要的进展。
Dec, 2023
本文提出了一种称为 CG-MI 的置信度引导模型反演攻击方法,利用预训练的可公开获取的生成对抗网络(GAN)的潜在空间作为先验信息和无梯度优化器,在不同数据分布的黑盒设置中实现了高分辨率的模型反演攻击。实验证明,我们的方法在 Celeba 和 Facescrub 的不同分布设置中,比 SOTA 黑盒 MIA 的攻击效果提高了超过 49%和 58%。此外,我们的方法能够生成与白盒攻击产生的质量相当的高质量图像。我们的方法为黑盒模型反演攻击提供了实用而有效的解决方案。
Feb, 2024
提出一种基于条件 GAN 的 PLG-MI 攻击策略,通过引入伪标签将搜索空间解耦,采用最大间隔损失改善目标分类的子空间搜索,实验表明本文方法攻击成功率和可视化质量效果明显优于当前先进攻击方法,特别是在大型分布转移下表现出 2~3 倍的优势。
Feb, 2023
本文提出了在标签黑盒情况下使用条件扩散模型的新型 MIA 方法,可以在不需要额外优化的情况下恢复目标的精确样本,并将 Learned Perceptual Image Patch Similarity 作为评估度量之一进行系统定量和定性评估,实验证明,该方法可以在标签黑盒情况下生成与目标相似且准确的数据,并且优于先前方法的生成器
Jul, 2023
本文提出了一种基于 Inversion-specific GAN 的新型模型反演攻击方法,通过训练鉴别器不仅区分真伪样本,而且包括目标模型提供的软标签,进而为每个目标类建模私人数据分布,成功率比先前的攻击方式有所提高(150%),而且普适于多种数据集和模型。
Oct, 2020
本文提出了一种新的训练范式,通过引入语义损失函数和注入对抗样本来增加训练数据的多样性,从而使攻击模型在数据重建过程中更加关注原始数据的类相关部分,进而提高现有学习攻击的性能。
Jun, 2023
通过仅利用目标生成模型的生成分布和辅助非成员数据集,我们提出了对各种生成模型(如生成对抗网络、变分自编码器、隐式函数和新兴的扩散模型)的第一个广义成员推断攻击,验证了所有生成模型都对我们的攻击易受攻击,我们呼吁设计和发布生成模型时要注意此类隐私泄漏风险。
Oct, 2023
本文介绍了一种新型攻击方法 —— 生成模型反演攻击,它可以显著地提高逆转深度神经网络的准确率,攻击者使用部分公共信息学习分布先验,引导逆转过程,并且通过实验证明了差分隐私在该攻击下的防御效果有限。
Nov, 2019