生成对抗网络的所有权保护
本文提出了一个黑盒和白盒设置的完整保护框架,对 GAN 进行知识产权保护,以抵御恶意的复制、分享和重新分发。实证分析表明,该方法不会影响原始 GAN 的性能,同时能够抵御嵌入式水印的删除和模糊攻击。
Feb, 2021
大型生成型人工智能(GAI)模型可以生成逐渐无法区分是否人工生成的文本、图片、声音和其他形式的媒体。本文研究了训练数据的知识产权问题,重点关注生成模型的特性,探讨可能导致潜在知识产权侵犯的滥用行为,并提出了一个分类体系,对 GAI 中保护数据免受知识产权侵犯的技术解决方案进行系统评述。
Apr, 2024
Defense-GAN 使用生成模型来抵御深度神经网络受到的对抗性攻击,并不需要修改分类器结构或者训练过程,可以适用于任何分类模型,并且不需要了解生成对抗性示例的过程。在不同的攻击方法下,实验证明 Defense-GAN 对抗性攻击防御策略具有一致的有效性,并可以提高现有的防御策略。
May, 2018
本文提出了一种新颖的 IP 保护方案,用于对生成对抗网络(GANs)进行所有权验证,该方案仅通过检查输出就能完成验证,而无需选择输入(即无需盒子设置)。通过利用鉴别器的未开发潜力,我们学习了一个能够捕捉所配对生成器学到的独特分布的超球体。对两个常见 GAN 任务和超过 10 个 GAN 架构的广泛评估表明,我们提出的方案能够有效地验证所有权,并证明对常见的基于输入的攻击具有免疫性,并且对其他现有攻击具有鲁棒性。
Jul, 2023
本文提出了一种基于 CNN 解码块插入生成器输出的数字水印算法,对生成对抗网络模型进行加密和保护。实验结果表明,该算法可将无形水印嵌入生成的图像,并在后期进行身份验证时检测到水印的存在,并且在 JPEG 压缩、添加噪声、模糊和颜色转换等后处理下,水印具有良好的抗干扰能力。
Sep, 2022
理论上我们证明了使用差分隐私算法来训练生成对抗网络(GAN)不会过度拟合,我们的新的隐私保护视角可以重新解释贝叶斯 GAN 等最新工作。通过各种成员攻击评估 GAN 模型的信息泄露,结果表明以前的 Lipschitz 规则技术不仅能够减少泛化间隙,而且还能减轻训练数据集的信息泄露。
Aug, 2019
介绍了一种新颖的方法 MITS-GAN,用于防止医学图像篡改,特别关注 CT 扫描。该方法通过引入不可察觉但准确的扰动,干扰攻击者的 CT-GAN 结构的输出。该方法的实验证明了其在 CT 扫描数据集上具有卓越的性能,强调了其能够生成无法察觉的篡改图像。
Jan, 2024
该研究提出了一种名为 table-GAN 的方法,使用生成对抗网络(GANs)合成伪造表格,用于保证数据匿名性和模型兼容性。实验证明,该方法在隐私和模型兼容性之间取得平衡,同时解决了数据泄露问题。
Jun, 2018
本文分析并强调 GAN 模型的公平性问题,提出了针对样本组的 GAN 模型调节或采用集成方法的解决方案,避免因训练过程中对某些群体偏好而测试时不能统一生成不同群体的数据分布。
Mar, 2021