我的艺术我的选择:对抗无序人工智能的防护
本文介绍了一种基于对抗样本的算法,称为 AdvDM,用于生成能够保护画家版权的扩散模型(DMs)的对抗样本。研究人员通过基于逆向过程采样的不同潜在变量实现了 Monte-Carlo 估计。大量实验表明,估计得到的对抗样本能够有效地阻止 DMs 提取其特征。
Feb, 2023
本文研究了扩散模型对于人工智能生成内容,特别是艺术创作的成功,并提出了针对侵权的对抗样本有效性方案。我们探讨了对抗样本的可迁移性问题并利用融合与修改的对抗损失函数明显提高了其可迁移性。实验结果表明我们的方法比现有方法更能生成可迁移且更具有对抗攻击鲁棒性的对抗样本。
May, 2023
本文提出了一个黑盒和白盒设置的完整保护框架,对 GAN 进行知识产权保护,以抵御恶意的复制、分享和重新分发。实证分析表明,该方法不会影响原始 GAN 的性能,同时能够抵御嵌入式水印的删除和模糊攻击。
Feb, 2021
提出了一种将个人水印嵌入敌对实例生成中的新框架,以生成具有可见水印的图像,防止敌对模型模仿未授权图像,并在各种条件图像生成场景进行广泛实验,证明了敌对实例具有良好的传递性,从而提供了一种保护基于扩散模型的版权的简单而有效的方法。
Apr, 2024
提出了一种新方法 AdvDiff,使用扩散模型生成无限制的对抗样本,并通过两种新的对抗引导技术在扩散模型的逆生成过程中进行对抗采样,实现了高质量、逼真的对抗样本生成。实验证明,AdvDiff 在攻击性能和生成质量方面优于基于 GAN 的方法。
Jul, 2023
本文提出了一种针对 Diffusion Model 的保护图像的方法,通过生成样本特定的扰动噪声使训练数据难以被 Diffusion Model 学习,以此保护隐私和版权。
Jun, 2023
人工智能生成内容 (AIGC) 在社交媒体上越来越受欢迎,其服务利用先进的生成模型,如潜在扩散模型和大型语言模型,为用户生成创意内容 (例如逼真的图像,流畅的句子)。本文展示了水印在生成的内容中的易破解性,并提出了 WMaGi 框架,通过利用预训练的扩散模型和生成对抗网络实现水印的移除和伪造,从而实现对生成内容的高速攻击。
Sep, 2023
该研究论文提出了一种系统性尝试,以理解和检测在对抗场景中生成的 AI 图像(AI 艺术)。该论文收集和分享了一个名为 ARIA 的数据集,其中包含来自四种热门 AI 图像生成器生成的真实图像和对应的人工对应图像。通过对 ARIA 数据集进行用户研究和基准测试,评估了真实世界用户和现有 AI 图像检测器在识别这些图像上的能力,并介绍了一个 ResNet-50 分类器,并评估了它在 ARIA 数据集上的准确性和可迁移性。
Apr, 2024
我们提出了一种基于对抗攻击的评估框架,用于评估安全驱动的模型在消除不需要的概念、风格和对象方面的鲁棒性,证明了我们的方法在与最先进的对抗提示方法进行对比时的效果和效率。
Oct, 2023
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
Dec, 2017