生成模型即自含水印:透过再生成声明模型认证
通过使用生成扩散模型对数据进行水印处理,我们展示了一种保护共享内容知识产权的方法,使得生成的图像带有水印并与训练数据特征相关联,以及通过统计测试确定模型是否使用了带有水印的数据。
Aug, 2023
利用扩散模型为防止未授权模型分发而合成无限制对抗样本作为触发器集合,通过知识注入而非错误记忆来促进独特的水印行为,并通过优化受保护模型的知识传递属性,无需过于猛烈的决策边界扰动即可将水印行为传递给提取替代物,从而提高对于逃避对手和水印清除攻击的鲁棒性。
Apr, 2024
我们介绍了一种新颖的基于触发集的水印技术,该方法对功能盗取攻击表现出强韧性,特别是涉及提取和精炼的攻击。我们的方法不需要额外的模型训练,并且可以应用于任何模型架构。通过计算可在源模型和代理模型集之间传输的触发集,我们展示了如果集合可传输的概率相当高,它可以有效用于盗取模型的所有权验证。我们在多个基准测试上评估了我们的方法,并展示了在所有考虑的实验设置中,我们的方法优于当前最先进的水印技术。
Jan, 2024
为了解决检测人工智能生成文本的问题,本研究提出了一种鲁棒且高质量的方案,名为 GPTWatermark,通过水印的方式确定文本的来源,并在大规模语言模型中展示了其稳定性和高检测准确性。
Jun, 2023
使用模型水印技术和区块链建立了一个统一的模型版权保护平台,称为 Tokenized Model,通过可靠的所有权记录和验证机制保护模型的版权,并通过构建模型的交易流程和贡献份额提高其财务价值。
Nov, 2023
通过将激进广义保护性水印与被动检测策略相结合,提出了一种统一的图像版权源追踪和归属性的方法,该方法采用个性化生成模型的输出作为初始步骤,利用强大的视觉主干网络对特定生成技术进行分类,并实现了增量学习策略以提高模型对新一代方法的适应性。实验证明了该方法在源追踪和归属性任务中的功效以及对知识遗忘的鲁棒性。
May, 2024
通过对现有 LLM 水印系统的攻击研究,提出了一套实用准则,用于生成和检测 LLM 水印,旨在解决水印系统在保留质量、鲁棒性和公共检测 API 等方面所面临的各种攻击问题。
Feb, 2024
对基于水印的 AI 生成内容检测方法的鲁棒性进行了系统研究,并提出了一种对抗性后处理方法,该方法可以让 AI 生成的图像逃避检测,并且保持良好的视觉质量,从而凸显了当前水印检测方法的不足之处。
May, 2023
人工智能生成内容 (AIGC) 在社交媒体上越来越受欢迎,其服务利用先进的生成模型,如潜在扩散模型和大型语言模型,为用户生成创意内容 (例如逼真的图像,流畅的句子)。本文展示了水印在生成的内容中的易破解性,并提出了 WMaGi 框架,通过利用预训练的扩散模型和生成对抗网络实现水印的移除和伪造,从而实现对生成内容的高速攻击。
Sep, 2023
模型版权的关键问题是所有权验证和水印技术,目前的基于后期方法是通过检查是否具有特定属性来识别可疑的第三方模型是否被盗窃。本文提出了一种新的基于可解释人工智能的水印技术,通过嵌入特征归属的解释中的验证行为来解决现有方法的限制。
May, 2024