通过单个空格逃避 ChatGPT 检测器
本研究的主要目的是提供 ChatGPT 检测的最新技术的全面评估,同时我们评估了其他 AI 生成的文本检测工具,以检测 ChatGPT 生成的内容。此外,我们还创建了一个基准数据集用于评估各种技术在检测 ChatGPT 生成内容方面的性能。研究结果表明,现有方法都不能有效地检测 ChatGPT 生成的内容。
Apr, 2023
用于区分 ChatGPT 生成文本和人类生成文本的当前方法的综述,包括构建用于检测 ChatGPT 生成文本的不同数据集,采用的各种方法,对人类与 ChatGPT 生成文本特征的定性分析,并最终总结研究结果为一般性见解。
Sep, 2023
研究中探讨了 ChatGPT 作为 AI 生成文本检测器的性能,通过评估它在人工编写与 AI 生成文本检测任务上的零样本表现,并对公开可用的数据集进行实验。结果发现 ChatGPT 以及类似的大型语言模型可在自动化检测流程中发挥作用,通过专注于解决问题的一个特定方面并从该解决方案派生出其他方面的解决方案。
Aug, 2023
本研究旨在创建一个多领域数据集,以测试用于检测高校和其他研究机构使用的人工生成信息的最先进 API 和工具。六种不同的人工智能文本识别系统,包括 “GPTkit”,“GPTZero”,“Originality”,“Sapling”,“Writer” 和 “Zylalab”,准确率介于 55.29% 至 97.0% 之间。尽管所有工具在评估中表现良好,但原创性在各方面表现尤为出色。
Sep, 2023
本研究探讨了几种广泛使用的 GPT 检测器的性能,并以母语和非母语英语写作样本为例,发现这些检测器将非母语英语写作样本错误地识别为 AI 生成的内容,而将母语写作样本正确地识别,并且还证明了简单的提示策略可以减轻这种偏见并有效地规避非母语英语写作者的惩罚。我们的研究结果呼吁加强对部署 ChatGPT 内容检测器的伦理影响的广泛讨论,并警告在评估或教育背景下使用时,这些检测器可能会无意中惩罚或排除非母语英语的演讲者和作者。
Apr, 2023
本论文提出了一种使用语言模型检测 ChatGPT 生成的文本与人工编写文本的新方法,并设计、实现和训练了两种不同的文本分类模型,使用了 Robustly Optimized BERT Pretraining Approach(RoBERTa)和 Text-to-Text Transfer Transformer(T5),精度超过 97%,我们还进行了可解释性研究,展示了模型提取和区分人工编写和 ChatGPT 生成文本的关键特征的能力,研究结果为有效使用语言模型检测生成文本提供了重要的见解。
May, 2023
通过监督分类的方法,我们开发了一种方法来辨别人工智能生成的文本和学术科学家的文本,其中包含 20 个特征,最终建立了一个模型准确地判断了文本的作者,使得误分类文档的数量减少至原来的 1/20。
Mar, 2023
本研究提出了一种基于机器学习的解决方案,可以识别 ChatGPT 生成的文本,并在分类过程中比较分析了共 11 种机器学习和深度学习算法。在 Kaggle 数据集上测试,该算法在由 GPT-3.5 生成的语料库上表现出 77% 的准确率。
May, 2023
ChatGPT 是最流行的语言模型之一,在各种自然语言任务上表现出色。本研究的目的是全面调查这些方法在分布偏移下的泛化行为,包括提示、文本长度、主题和语言任务,从而为 ChatGPT 检测的未来方法或数据收集策略的开发提供指导。
Oct, 2023
本文研究了机器学习模型在准确区分 ChatGPT 生成文本与人类生成文本时是否能够有效训练,使用可解释的人工智能框架来对模型进行了解释,研究发现采用 ChatGPT 重新短语生成能够使模型识别 ChatGPT 生成文本与人类生成文本之间的差异更具挑战性。
Jan, 2023