生成型自动编码器用作水印攻击者:漏洞和威胁的分析
本文提出了一种基于条件生成式对抗网络的水印去除框架,该方法在大规模可见水印数据集上经过广泛实验验证,相对于现有技术,能够更加真实逼近照片级别的效果。
May, 2019
提出了一种将个人水印嵌入敌对实例生成中的新框架,以生成具有可见水印的图像,防止敌对模型模仿未授权图像,并在各种条件图像生成场景进行广泛实验,证明了敌对实例具有良好的传递性,从而提供了一种保护基于扩散模型的版权的简单而有效的方法。
Apr, 2024
利用扩散模型为防止未授权模型分发而合成无限制对抗样本作为触发器集合,通过知识注入而非错误记忆来促进独特的水印行为,并通过优化受保护模型的知识传递属性,无需过于猛烈的决策边界扰动即可将水印行为传递给提取替代物,从而提高对于逃避对手和水印清除攻击的鲁棒性。
Apr, 2024
对基于水印的 AI 生成内容检测方法的鲁棒性进行了系统研究,并提出了一种对抗性后处理方法,该方法可以让 AI 生成的图像逃避检测,并且保持良好的视觉质量,从而凸显了当前水印检测方法的不足之处。
May, 2023
通过分析 AI 图像检测方法,研究了水印技术以及基于分类器的深度伪造检测器的强大性,发现在扰动预算较低的情况下,扩散纯化攻击能够有效地去除水印,而对于图像有明显更改的高扰动水印方法,我们开发了一种模型替换对抗攻击来成功去除水印。同时发现水印技术容易受到欺骗攻击,对开发者的声誉造成损害,并通过实验表明分类器的鲁棒性和可靠性之间存在基本的权衡关系。
Sep, 2023
本研究关注深度神经网络的水印方案的稳健性和可靠性,发现恶意对手即使在水印难以删除的情况下,仍然可以逃避合法所有者的验证,从而避免了模型被盗的可能性。
Sep, 2018
通过使用生成扩散模型对数据进行水印处理,我们展示了一种保护共享内容知识产权的方法,使得生成的图像带有水印并与训练数据特征相关联,以及通过统计测试确定模型是否使用了带有水印的数据。
Aug, 2023
现在,稳定扩散(SD)模型家族因其高质量的输出和可扩展性而变得重要。这也引发了对社交媒体安全性的担忧,因为恶意用户可以创建和传播有害内容。现有方法涉及在生成的图像中训练组件或整个 SD 来嵌入水印,以实现可追溯性和责任归属。然而,在人工智能生成内容(AIGC)的时代,快速迭代的 SD 使得重新训练带有水印模型变得昂贵。为了解决这个问题,我们提出了一种针对 SD 的无需训练的即插即用水印框架。在不修改 SD 的任何组件的情况下,我们在潜在空间中嵌入不同的水印,适应去噪过程。我们的实验结果表明,我们的方法有效地协调了图像质量和水印的隐形性。此外,它在各种攻击下表现出很强的稳健性。我们还验证了我们的方法在多个 SD 版本中的通用性,甚至无需重新训练水印模型。
Apr, 2024
使用水印技术可以标记生成内容并通过隐藏信息检测其真实性,我们通过定义目标函数并将自适应攻击作为优化问题来解决水印算法的鲁棒性评估问题,研究发现可在图像质量几乎不降低的情况下破解所有五种受测水印方法,强调了对适应性、可学习的攻击者进行更严格的鲁棒性测试的必要性。
Sep, 2023