幽灵句子:一个供普通用户从大型语言模型中申请数据版权的工具
GhostWriter 是一种使用大型语言模型 (LLM) 进行人工智能增强的写作设计探针,用户可以在写作过程中隐式地学习其预期写作风格,并通过手动样式编辑和注释实现显式教学,研究结果表明 GhostWriter 帮助用户个性化生成文本,通过提供多种方式控制系统的写作风格增强用户的能力,为未来的工作提供了设计建议。
Feb, 2024
利用版权陷阱检测大型语言模型中的版权材料,通过研究版权保护的内容的公平使用和训练模型中的内容是否可被检测,提出了一种实验设计,并发现较长的序列经过重复多次可以可靠地检测出来,并通过研究序列出现次数及困惑度,以及考虑上下文的方法进一步改善了检测能力。
Feb, 2024
最近的文献强调了大型语言模型(LLMs)与学术诚信相关的潜在风险,它们可以记忆部分训练实例并在生成的文本中无妥善归属地复制。此外,鉴于它们在生成高质量文本方面的能力,剽窃者可以利用 LLMs 生成与原作无法区分的逼真释义或摘要。为了应对 LLMs 可能在剽窃行为中的恶意使用,我们介绍了 PlagBench,这是一个综合的数据集,由三个针对不同写作领域的三个指导调整的 LLMs 生成的 46.5K 个合成剽窃案例组成。通过对每种类型的剽窃进行细粒度的自动评估和人工注释来确保 PlagBench 的质量。然后,我们利用我们提出的数据集来评估五个现代 LLMs 和三个专门的剽窃检测器的剽窃检测性能。我们的研究结果表明,与 Llama2 和 GPT-4 相比,GPT-3.5 倾向于生成更高质量的释义和摘要。尽管 LLMs 在摘要剽窃识别方面表现较差,但它们可以超过当前的商业剽窃检测器。总体而言,我们的结果突显了 LLMs 作为强大剽窃检测工具的潜力。
Jun, 2024
介绍了一种用于检测和评估用于大型语言模型的训练数据集中的潜在版权书籍内容的详细框架,并提供了每个内容样本包含的可信度估计。通过模拟实验证实了该框架在识别和解决语言模型训练过程中的内容滥用方面的有效性,同时研究了这些数据集中来自名著的可识别引用语的存在。研究结果对于确保版权材料在语言模型开发中的合理使用具有重要意义,强调了在该领域需要更加透明和负责任的数据管理实践。
Jan, 2024
采用欧洲法律为例,本研究提出了一种系统分析方法, quantifying potential copyright infringements in large language models (LLMs)。通过使用 160 个字符的阈值和模糊文本匹配算法,研究分析了指导微调模型在真实终端用户场景中的行为和特征。该研究结果发现在几种主流的 LLMs 中对版权合规、行为特征和适当拒绝方面表现出巨大差异。
May, 2024
Ghostbuster 是一种用于检测人工智能生成文本的最先进系统,它不需要访问目标模型中的令牌概率,可以用于检测黑盒模型或未知模型版本的文本。与我们的模型结合使用,我们发布了三个新的以人类和 AI 生成的文本作为检测基准的数据集,Ghostbuster 在全三个数据集上的文件级别检测平均达到了 99.1 F1,跑赢了 GPTZero 和 DetectGPT 等先前的方法。
May, 2023
本文研究了语言模型中三种类型的抄袭行为(即逐字,改写和思想),分析了细调语言模型的抄袭模式。结果显示,语言模型存在广泛的抄袭,其大小和解码方法与抄袭程度密切相关,抄袭模式的变化取决于其语料库的相似性和同质性。这些发现提出了关于当前语言模型实践中实用性的疑虑并强调了观察到的现象的更多探讨。
Mar, 2022
本研究通过对语言模型的逐字记忆进行探索,重点关注版权文字的再分发可能性,通过对一系列热门图书和编码问题进行实验,提供了个人估计的语言模型再分发这些材料的程度。总体而言,本研究强调了进一步研究的必要性,以及对版权法规遵守的潜在影响和未来自然语言处理发展的潜在影响。
Oct, 2023
当前隐私研究主要集中在大型语言模型(LLM)提取训练数据的问题上。与此同时,模型的推论能力已大幅增强,这引发了一个关键问题:当前的 LLM 是否能通过推断来侵犯个人的隐私。在本研究中,我们提出了关于预训练 LLM 从文本中推断个人属性能力的首个全面研究。我们构建了一个由真实 Reddit 个人资料组成的数据集,并展示出当前 LLM 能够推断广泛的个人属性(如地点、收入、性别),在成本(人类所需的 1%)和时间(人类所需的 2.4%)上达到了高达 85% 的 top-1 准确率和 95.8% 的 top-3 准确率。由于人们越来越多地与 LLM 驱动的聊天机器人进行各个方面的互动,我们还探讨了通过似乎无害的问题来提取个人信息的侵犯隐私聊天机器人的新威胁。最后,我们证明了普遍采用的缓解措施,即文本匿名化和模型对齐,对于保护用户隐私免受 LLM 推断攻击是无效的。我们的研究结果表明,当前的 LLM 能够以以前无法想象的规模推断出个人数据。在缺乏有效防御措施的情况下,我们主张就 LLM 隐私影响展开更广泛的讨论,力求实现更广泛的隐私保护。
Oct, 2023