本文介绍了一种更真实的模型反演攻击定义,并利用生成对抗网络的属性构建连通的低维流形。我们在此流形内实施的模型反演攻击表现出高效率。
Oct, 2019
本研究提出了一种基于强化学习的黑盒模型反演攻击方法,利用生成对抗网络(GANs)和 Markov 决策过程来搜索潜在空间以构建训练机器学习模型所用的隐私数据,并且在各种数据集和模型上取得了最先进的攻击性能。
Apr, 2023
本文介绍了一种新型攻击方法 —— 生成模型反演攻击,它可以显著地提高逆转深度神经网络的准确率,攻击者使用部分公共信息学习分布先验,引导逆转过程,并且通过实验证明了差分隐私在该攻击下的防御效果有限。
Nov, 2019
本研究提供了深度学习中一种重要的隐私保护策略,即基于变分自编码器和生成模型的攻击方法,可以更加准确地生成包含敏感数据的样本,并保持样本的多样性和真实性。
Jan, 2022
本文提出两种黑盒模型反演攻击方法,不需要查询学生模型,可以成功地从传统教师模型转移学习中的学生模型中恢复高度可识别的数据记录。
Mar, 2022
本文研究了对抗训练的对抗攻击容忍性与隐私攻击容忍性之间的关系,通过对 CIFAR-10 数据集进行三种不同类型的模型反演攻击,揭示了对抗训练模型输入空间存在的问题。
Jun, 2019
本文提出了一种基于 Inversion-specific GAN 的新型模型反演攻击方法,通过训练鉴别器不仅区分真伪样本,而且包括目标模型提供的软标签,进而为每个目标类建模私人数据分布,成功率比先前的攻击方式有所提高(150%),而且普适于多种数据集和模型。
Oct, 2020
本文研究了深度学习技术的隐私风险和在对抗性环境下的模型反演问题,并提出了设计两种技术来训练反演模型,从部分预测中准确地反演目标模型。
Feb, 2019
该论文对 GNNs 进行了系统研究,提出了 GraphMI 方法用于推断私有训练数据中的离散边缘,建议更有效的隐私防御措施。
Sep, 2022
介绍了一种名为 GAMIN 的黑盒模型逆向攻击框架,通过训练目标模型的替代模型和生成器,可以对包括卷积神经网络在内的复杂模型进行攻击,成功地从 MNIST 数据集和 pilot parliament 数据集的目标模型中提取出可辨别的特征。
Sep, 2019