引入一种新的基于生成式对抗网络(GANs)的上下文感知隐私框架 (GAP),GAP 通过让数据持有者从数据集中学习隐私化策略,绕过了常见的挑战,即在提供可证明的隐私保护的同时保留数据集的实用性,具有很高的实用性并且能够应用在缺乏数据统计信息的情况下。
Oct, 2017
理论上我们证明了使用差分隐私算法来训练生成对抗网络(GAN)不会过度拟合,我们的新的隐私保护视角可以重新解释贝叶斯 GAN 等最新工作。通过各种成员攻击评估 GAN 模型的信息泄露,结果表明以前的 Lipschitz 规则技术不仅能够减少泛化间隙,而且还能减轻训练数据集的信息泄露。
Aug, 2019
该研究提出了一种名为 table-GAN 的方法,使用生成对抗网络(GANs)合成伪造表格,用于保证数据匿名性和模型兼容性。实验证明,该方法在隐私和模型兼容性之间取得平衡,同时解决了数据泄露问题。
Jun, 2018
利用生成对抗网络产生保护隐私的人造数据,限制潜在的隐私泄露,且成功地在此数据上训练和验证机器学习模型。
Mar, 2018
本论文对生成对抗网络在隐私和安全领域的最新研究进行了综述和分类分析,探讨了潜在的应用以及未来的研究方向。
Jun, 2021
本文探讨如何使用对抗性样本保护个人隐私信息,提出一种称为 SGAP 的方法,在保护隐私的同时最大程度地保留数据实用性,并在指纹和卡通脸生物数据集上验证了方法的有效性。
Apr, 2018
本文通过在学习过程中添加特别设计的梯度噪声来实现差分隐私的生成对抗网络(DPGAN),以解决 GAN 在应用于私人或敏感数据时可能泄露关键信息的问题,并提供隐私保障的严格证明和全面的实证证据。
Feb, 2018
本文提出了一种基于局部差分隐私的生成对抗网络训练方法,通过熵正则化 Wasserstein 距离的组合使用来降噪数据分布,有效地缓解了正则化偏差和隐私噪声效应。
Jun, 2023
利用对抗性神经网络实现随机机制和互信息隐私的变分近似,优化隐私数据发布机制的信息论最优折衷方案,对合成数据和实际数据集 MNIST 进行了验证实验。
Dec, 2017
该研究提出了一种基于条件生成对抗网络的新型体系结构,可以在保留原始数据分布的同时自动地对图像中的人脸进行匿名处理,以隐私安全信息为基础生成图像实现了对图像中所有人脸的完全匿名化,并且引入了包括非传统姿势、遮挡脸部和背景变化巨大的人脸数据集。最后,该模型在保护图像隐私的同时也适合于进一步用于深度学习模型的训练。该模型是保证人脸匿名化的同时生成逼真图像的首个解决方案。
Sep, 2019