本文介绍了一种新型攻击方法 —— 生成模型反演攻击,它可以显著地提高逆转深度神经网络的准确率,攻击者使用部分公共信息学习分布先验,引导逆转过程,并且通过实验证明了差分隐私在该攻击下的防御效果有限。
Nov, 2019
本研究提供了深度学习中一种重要的隐私保护策略,即基于变分自编码器和生成模型的攻击方法,可以更加准确地生成包含敏感数据的样本,并保持样本的多样性和真实性。
Jan, 2022
本文提出了一种新的训练范式,通过引入语义损失函数和注入对抗样本来增加训练数据的多样性,从而使攻击模型在数据重建过程中更加关注原始数据的类相关部分,进而提高现有学习攻击的性能。
Jun, 2023
模型反演攻击致力于利用对预训练模型的访问权限揭示关于训练数据的私密信息,这些攻击使得对与私密训练数据密切一致的高保真数据的重建成为可能,从而引发了重大的隐私担忧。尽管该领域取得了快速的进展,但我们仍然缺乏对现有模型反演攻击和防御方法的全面概述。为了填补这一空白,本文对该领域进行了深入研究,并提出了综合调查报告。首先,本文简要回顾了机器学习场景下传统的模型反演方法。然后,对多种模态和学习任务下深度神经网络 (DNNs) 的近期攻击和防御方法进行了详细分析和比较。
Feb, 2024
本文提出了一种基于 Inversion-specific GAN 的新型模型反演攻击方法,通过训练鉴别器不仅区分真伪样本,而且包括目标模型提供的软标签,进而为每个目标类建模私人数据分布,成功率比先前的攻击方式有所提高(150%),而且普适于多种数据集和模型。
Oct, 2020
该论文对 GNNs 进行了系统研究,提出了 GraphMI 方法用于推断私有训练数据中的离散边缘,建议更有效的隐私防御措施。
Sep, 2022
本研究提出了一种基于强化学习的黑盒模型反演攻击方法,利用生成对抗网络(GANs)和 Markov 决策过程来搜索潜在空间以构建训练机器学习模型所用的隐私数据,并且在各种数据集和模型上取得了最先进的攻击性能。
Apr, 2023
本文研究了深度学习技术的隐私风险和在对抗性环境下的模型反演问题,并提出了设计两种技术来训练反演模型,从部分预测中准确地反演目标模型。
Feb, 2019
本文提出了两个能够有效提高现有所有最优模型对抗攻击性能的解决方案:对现有最优模型对抗攻击算法的优化目标进行分析并提出了改进的优化目标,以及分析了 “过度拟合” 并提出了一种新的 “模型增强” 思想来克服这个问题。实验证明,这些提出的解决方案能使现有的最优模型对抗攻击算法准确率提高 11.8%。
本文聚焦于模型反演攻击,介绍了一种新的基于置信度分数的攻击方法和仅需要模型预测标签的攻击方法,并将攻击算法应用在决策树和深度神经网络上,评估了不同数据集在不同身份特征条件下的漏洞性。