May, 2024

大型语言模型中用于低熵和无偏生成的水印

TL;DR近期大型语言模型的发展突显了滥用的风险,并引发了对于精确检测大型语言模型生成内容的担忧。本研究提出了一种名为 STA-1 的无偏水印方法,该方法在检测过程中不需要获取大型语言模型,也不需要提示信息,并且对于水印检测的第二类错误提供了统计保证,实验结果表明这种方法在低熵和高熵数据集上实现了与现有无偏水印相当的文本质量和水印强度,并具有低风险的不令人满意的输出。