评估耐久性:多模式数字水印的基准洞察
本文探讨使用不同的检测方法来对水印进行可靠的鉴别,并研究机器生成文本的大量观察对于水印的鉴别是否可靠,最终表明水印技术是一项可靠的解决方案,尤其是在样本复杂度越高时,水印证据会逐渐累积,并最终被检测出来。
Jun, 2023
在大型语言模型的能力与对其滥用的担忧日益增长的背景下,对机器生成的文本与人类作者的内容进行区分的能力变得重要。本研究侧重于文本水印技术而非图像水印,并提出了一个全面的评估框架,包括不同任务及实际攻击的水印技术基准。我们关注三个主要指标:质量、大小(例如,检测水印所需的标记数)和防篡改性。目前的水印技术已足够用于部署,但我们认为水印的不可辨认性要求过高;略微修改逻辑分布的方案在生成质量上胜过不可辨认的对应方案且无明显质量损失。我们公开发布我们的基准测试。
Dec, 2023
本文研究一种基于自然语言的水印系统,旨在通过嵌入足够的信息和提取不变特征以提高其负载能力和鲁棒性,进而提高水印系统的版权保护能力。通过系统分析提出了一种抗干扰的填充模型,并建立了一个对比实验,结果表明该方法相较于之前的方法鲁棒性平均提高了百分之十六点八。
May, 2023
为了解决大型语言模型的滥用问题,该研究开发了水印算法,通过限制生成过程以留下不可见痕迹进行水印检测。本文引入了 WaterBench,第一个针对大型语言模型水印的全面基准测试,通过设计三个关键要素进行了综合评估,包括基准测试过程、任务选择和评估指标,观察到当前方法在保持生成质量方面存在共同困难。
Nov, 2023
通过文本水印技术,在生成的文本中嵌入不可见但可检测的模式,有助于追踪和验证文本来源,从而防止滥用和盗版。该综述对当前的文本水印技术进行了全面总结,包括不同技术的概述和比较、算法的评估方法以及可能的应用领域,以帮助研究人员全面了解文本水印技术、促进进一步的发展。
Dec, 2023
合成语音的逼真性不断增强,但由此引发了将伪装和虚假信息传播等伦理问题。通过将人类无感知的水印嵌入到 AI 生成的音频中,音频水印技术提供了一个有希望的解决方案。然而,音频水印技术在面对常见和对抗性干扰时的稳健性仍未得到充分研究。本文提出了 AudioMarkBench,这是第一个用于评估音频水印技术对水印消除和篡改的稳健性的系统化基准。AudioMarkBench 包括一个从 Common-Voice 跨语言、生理性别和年龄创建的新数据集,3 种最先进的水印技术以及 15 种干扰类型。我们在无盒、黑盒和白盒设置下评估了这些方法的稳健性。我们的研究结果突出了当前水印技术的脆弱性,并强调了更稳健和公平的音频水印技术的需求。我们的数据集和代码可在 https://github.com/moyangkuo/AudioMarkBench 上公开获取。
Jun, 2024
通过对现有 LLM 水印系统的攻击研究,提出了一套实用准则,用于生成和检测 LLM 水印,旨在解决水印系统在保留质量、鲁棒性和公共检测 API 等方面所面临的各种攻击问题。
Feb, 2024
本文提出利用对抗式机器学习中的稳健优化算法来提高基于卷积神经网络的数字水印框架的鲁棒性,在 COCO 数据集上的实验证明,稳健优化可以显著提高数字水印框架的鲁棒性。
Oct, 2019
使用水印技术可以标记生成内容并通过隐藏信息检测其真实性,我们通过定义目标函数并将自适应攻击作为优化问题来解决水印算法的鲁棒性评估问题,研究发现可在图像质量几乎不降低的情况下破解所有五种受测水印方法,强调了对适应性、可学习的攻击者进行更严格的鲁棒性测试的必要性。
Sep, 2023