防范 GANs 中的成员推断攻击以保护隐私
通过仅利用目标生成模型的生成分布和辅助非成员数据集,我们提出了对各种生成模型(如生成对抗网络、变分自编码器、隐式函数和新兴的扩散模型)的第一个广义成员推断攻击,验证了所有生成模型都对我们的攻击易受攻击,我们呼吁设计和发布生成模型时要注意此类隐私泄漏风险。
Oct, 2023
本文提出了一种隐私保护的生成模型,通过变分自编码器 (VAE) 的信息提取和数据生成能力,生成符合差分隐私要求的合成数据来防御成员推理攻击,并进行了实验验证。
Feb, 2022
本文提出了首个针对生成模型的成员推断攻击方法,使用生成对抗网络检测过度拟合并识别训练数据,发现缺陷对于不同的训练参数有不同的灵敏度,防御方法不够有效并会导致生成模型在训练稳定性或样本质量方面表现较差。
May, 2017
通过研究生成式对抗网络,我们证明了一定条件下,GAN 生成的样本天然满足一定程度的隐私保障,即 ε,δ 差分私有性。同时,我们研究了对成员身份推断攻击的鲁棒性,并证明了对手的区分能力至少为 O (m^{-1/4})。
Jun, 2022
理论上我们证明了使用差分隐私算法来训练生成对抗网络(GAN)不会过度拟合,我们的新的隐私保护视角可以重新解释贝叶斯 GAN 等最新工作。通过各种成员攻击评估 GAN 模型的信息泄露,结果表明以前的 Lipschitz 规则技术不仅能够减少泛化间隙,而且还能减轻训练数据集的信息泄露。
Aug, 2019
使用生成对抗网络黑盒设置进行成员推断攻击,探究其对隐私的影响,并发现攻击成功率较其他生成模型和判别模型要低,这呈现出 GAN 是否确实更为私密的有趣问题。
Oct, 2023
本文提出了一种基于对比学习和互信息最大化的正式框架,可以同时减轻生成敌对网络(GAN)中两个根本问题:鉴别器的灾难性遗忘和生成器的模式坍塌,从而在图像合成中显着稳定 GAN 训练和提高 GAN 性能。
Jul, 2020
我们研究了生成对抗网络(GANs)用于创建表格合成数据集可能导致的隐私风险,发现恶意攻击者可以通过选择与训练样本最接近的合成样本对隐私构成重大威胁,并且当攻击者具有对生成模型的知识或黑盒访问时,隐私威胁显著增加,而使用多目标优化的重构攻击甚至会增加识别机密样本的风险。
Mar, 2024
本文研究了基于扩散的生成模型对成员隐私的攻击风险,提出了一种新的黑盒成员隐私攻击方法 SecMI,并通过对标准扩散模型和文本 - 图像扩散模型等不同数据的实验结果展示其高准确性。
Feb, 2023