- TabularMark:机器学习中的表格数据水印
使用基于假设检验的水印方案 TabularMark 对表格数据进行水印处理,在保留数据实用性的同时,防止攻击者在攻击的数据集上训练有效的机器学习模型。实验结果表明,TabularMark 在可检测性、非侵入性和鲁棒性方面具有优势。
- 使用纠错码为语言模型添加水印
最近大型语言模型在创造逼真的机器生成内容方面取得了进展。水印技术是一种有希望的方法,用于区分机器生成的文本和人类文本,将统计信号嵌入输出中,理想情况下对人类来说是不可察觉的。我们提出了一种水印技术框架,通过纠错码来编码这些信号。我们的方法被 - WMAdapter:向潜在扩散模型添加水印控制
在保护 AI 生成图像的版权方面,水印技术至关重要。我们提出了 WMAdapter,这是一个扩散模型水印插件,可以在扩散生成过程中进行无缝水印印制。WMAdapter 高效、稳健,着重于高品质图像生成。为了实现这一点,我们进行了两个关键设计 - DREW:通过利用误差控制数字水印实现强大的数据溯源
提出了一种使用纠错码和水印技术的数据检索方法(DREW),该方法可以准确识别数据来源,实现可靠的数据溯源和安全检索。
- 语言模型的编辑距离稳健水印
使用具有可证明保证的水印技术对语言模型的输出进行保护,使其满足不可检测性和对修订的鲁棒性要求。
- 语言模型水印的黑盒检测
水印技术被视为一种有效的方法来检测 LLM 生成的文本,此研究针对三种最流行的水印方案家族开发了严格的统计测试,使用有限数量的黑盒查询来检测它们的存在,并发现当前的水印方案比之前认为的更容易被检测到。
- WaterPool:在隐形、效能和稳健性之间进行减少水印的权衡
利用关键模块和标记模块的分解,本文介绍了 WaterPool,一个简单但有效的关键模块,提高了水印技术的性能,达到接近最佳的不可察觉性,并显著提高了功效和鲁棒性。
- SSyncOA:自同步对象对齐水印抵抗裁剪粘贴攻击
基于对象自同步的图像水印技术,通过保护对象的鲁棒特征来抵御剪切 - 粘贴攻击,对齐水印并同步平移、旋转和缩放失真。优于其他状态的水印方法的广泛实验证明了该方法的优越性。
- WateRF: 辐射场的鲁棒水印用于版权保护
我们提出了一种创新的、适用于 NeRF 表示的数字水印方法,通过在渲染过程中使用离散小波变换,结合延迟反向传播技术和区块损失,实现了嵌入二进制信息的高质量渲染。通过在 2D 渲染图像中评估嵌入水印的容量、隐形性和鲁棒性等方面,我们的方法在训 - 可学习的语言水印:对大型语言模型的模型提取攻击进行追踪
在快速发展的人工智能领域中,保护大型语言模型(LLMs)的知识产权变得越来越关键。我们提出了一种新颖的方法,在 LLMs 中嵌入可学习的语言水印,以追踪和防止模型提取攻击。我们的方法通过向令牌频率分布中引入可控噪声来微妙地修改 LLM 的输 - 双重隐私保护:面向人脸识别的稳健可追踪对抗水印
基于可追踪对抗性水印技术的双重隐私保护方案 (DPG),通过在载体的深层特征空间中嵌入身份特定的水印,欺骗未授权的人脸识别模型以同时允许授权者对身份进行验证,实现了显著的攻击成功率、可追踪性精度和优秀的鲁棒性。
- 一种无需培训的即插即用稳定扩散水印框架
现在,稳定扩散(SD)模型家族因其高质量的输出和可扩展性而变得重要。这也引发了对社交媒体安全性的担忧,因为恶意用户可以创建和传播有害内容。现有方法涉及在生成的图像中训练组件或整个 SD 来嵌入水印,以实现可追溯性和责任归属。然而,在人工智能 - CVPR高斯着色:扩散模型的可证明性无性能损失图像水印
提出了一种性能无损且无需额外训练的模型扩散水印技术,可以用于版权保护和追踪违规内容,该水印嵌入不影响模型参数,并且对于损失处理和擦除尝试具有鲁棒性。
- 大型语言模型的水印的统计框架:枢轴、检测效率和最优规则
自 2022 年 11 月引入 ChatGPT 以来,将几乎不可察觉的统计信号嵌入到大型语言模型生成的文本中(也称为水印),已被用作对比较于人类编写的文本的 LLM 生成文本的可证明检测的合理方法。本文提出了一种通用且灵活的框架,用于对水印 - 潜水印:在潜在扩散空间中注入和检测水印
本文提出了一种在潜在空间中注入和检测水印的解决方案 —— 潜在水印(LW),并采用渐进训练策略。通过实验证明,在注入 64 位消息时,LW 在 9 个单次攻击场景和一个全攻击场景下,可以实现接近 100% 的识别性能和 97% 以上的归属性 - ACLWaterJudge:在为大语言模型加水印时实现质量检测与权衡
通过比较评估的灵活自然语言生成评估框架,本研究提出了一个简单的分析框架,用于评估特定水印设置引起的生成文本质量降低,以找到平衡性能和易检测性的最佳水印操作点。该方法应用于两个不同的摘要系统和一个翻译系统,实现了任务内和跨任务的模型分析。
- LLM 生成的代码是否具有稳定性的数字水印技术研究
我们对大型语言模型生成的 Python 代码的现有水印技术的鲁棒性进行了首次研究,发现虽然已有的研究表明水印技术对自然语言可能是鲁棒的,但我们发现通过语义保持变换很容易去除这些代码水印。
- 水印式 LLM 的统计理解的改进
本文研究了大型语言模型(LLMs)的水印问题,并将其模型畸变和检测能力之间的权衡视为一个基于 Kirchenbauer 等人(2023a)的绿 - 红算法的约束优化问题。通过该优化问题的最优解,我们证明了其具有良好的解析特性,从而更好地理解 - Hufu: 通过置换等变性实现预训练 Transformers 的跨模态水印系统
Hufu 是一种不依赖特定任务和样本触发的模态无关型水印系统,利用 Transformer 的置换等变性特性,在预训练模型上通过对特定置换的数据样本微调来嵌入水印,保证了嵌入模型在正常使用和触发置换输入条件下的权重不产生干扰,从而在下游任务 - WaterMax:打破 LLM 图像水印可检测性、鲁棒性和质量的平衡
该研究提出了一种名为 WaterMax 的新型水印方案,它能够在保持原始大语言模型生成文本质量的同时,具有很高的可检测性,相对于现有文献中的水印技术,WaterMax 在鲁棒性和复杂性之间取得了平衡,并且在最全面的基准套件中表现优于所有先前