GAMIN:一种对抗性的黑盒模型反演方法
本文介绍了一种新型攻击方法 —— 生成模型反演攻击,它可以显著地提高逆转深度神经网络的准确率,攻击者使用部分公共信息学习分布先验,引导逆转过程,并且通过实验证明了差分隐私在该攻击下的防御效果有限。
Nov, 2019
本研究提出了一种基于强化学习的黑盒模型反演攻击方法,利用生成对抗网络(GANs)和 Markov 决策过程来搜索潜在空间以构建训练机器学习模型所用的隐私数据,并且在各种数据集和模型上取得了最先进的攻击性能。
Apr, 2023
本文提出了一种新的训练范式,通过引入语义损失函数和注入对抗样本来增加训练数据的多样性,从而使攻击模型在数据重建过程中更加关注原始数据的类相关部分,进而提高现有学习攻击的性能。
Jun, 2023
本文提出了一种基于 Inversion-specific GAN 的新型模型反演攻击方法,通过训练鉴别器不仅区分真伪样本,而且包括目标模型提供的软标签,进而为每个目标类建模私人数据分布,成功率比先前的攻击方式有所提高(150%),而且普适于多种数据集和模型。
Oct, 2020
基于生成对抗网络的模型逆向攻击旨在通过在潜在空间中搜索代码来从复杂深度学习模型中恢复私有训练数据。本文提出了一种新颖的分布式黑盒模型逆向攻击方法,通过构建概率潜在空间来搜索目标隐私数据,相比现有方案具有更好的攻击准确性和性能。
Apr, 2024
本文提出了一种称为 CG-MI 的置信度引导模型反演攻击方法,利用预训练的可公开获取的生成对抗网络(GAN)的潜在空间作为先验信息和无梯度优化器,在不同数据分布的黑盒设置中实现了高分辨率的模型反演攻击。实验证明,我们的方法在 Celeba 和 Facescrub 的不同分布设置中,比 SOTA 黑盒 MIA 的攻击效果提高了超过 49%和 58%。此外,我们的方法能够生成与白盒攻击产生的质量相当的高质量图像。我们的方法为黑盒模型反演攻击提供了实用而有效的解决方案。
Feb, 2024
本论文提出一种名为 MalGAN 的生成对抗网络 (GAN) 算法来生成对手样本,以绕过基于黑盒机器学习的检测模型,相对于传统的基于梯度的对手样本生成算法,MalGAN 能够将检测率降至几乎为零,并使基于重新训练的防御方法难以奏效。
Feb, 2017