AI 生成文本检测工具的实证研究
本研究的主要目的是提供 ChatGPT 检测的最新技术的全面评估,同时我们评估了其他 AI 生成的文本检测工具,以检测 ChatGPT 生成的内容。此外,我们还创建了一个基准数据集用于评估各种技术在检测 ChatGPT 生成内容方面的性能。研究结果表明,现有方法都不能有效地检测 ChatGPT 生成的内容。
Apr, 2023
通过分析在 Arxiv 上发布的学术组织制作的故意伪造内容的方法,本研究创建了使用物理学、数学和计算机科学文章的数据集,并发现 originality.ai 在检测中非常准确,准确率达到了 98%。
Feb, 2024
本研究针对学术环境中使用人工智能生成文本的潜在风险进行研究,发现现有的人工智能生成文本检测工具准确性和可靠性都有问题,并且在检测时存在偏向于将 AI 生成文本归类为人类写作。同时,内容混淆技术也会显著降低检测工具的性能。
Jun, 2023
该研究比较了 ChatGPT 和 32 门大学课程学生的表现,发现 ChatGPT 在许多课程中的表现相当,甚至优于许多学生。此外,其使用也难以被 AI 文本分类器可靠地检测出来,并且出现了学生使用该工具和教育者将其视为抄袭的共识,这些发现为 AI 融入教育框架的政策讨论提供了指导。
May, 2023
本研究旨在探究智能 AI 写作机器人 ChatGPT 生成的学术论文内容的原创性,并使用两种常用的抄袭检测工具评估了 ChatGPT 生成的 50 篇论文的独创性。结果表明,ChatGPT 在许多主题上具有高度的原创性,并有潜力生成具有复杂文本输出能力的内容,而传统的抄袭检测工具不易检测到这些内容。同时,本文还讨论了 AI 技术对教育的影响和机构需要采取适当措施来缓解潜在的抄袭问题。
Feb, 2023
研究中探讨了 ChatGPT 作为 AI 生成文本检测器的性能,通过评估它在人工编写与 AI 生成文本检测任务上的零样本表现,并对公开可用的数据集进行实验。结果发现 ChatGPT 以及类似的大型语言模型可在自动化检测流程中发挥作用,通过专注于解决问题的一个特定方面并从该解决方案派生出其他方面的解决方案。
Aug, 2023
本研究基于 GPT-3 模型自动生成科学论文摘要,通过机器学习模型结合多种文本表示方法来辨别机器生成文本,并分析模型性能及讨论相关研究问题,旨在揭示人工智能生成文本的能力和局限性。
Apr, 2023
我们的研究旨在探索传统和新的特征,以便 (1) 检测 AI 生成的文本和 (2) 由 AI 改写的文本。结果显示,新特征显著提高了许多分类器的性能。我们最好的基本文本改写检测系统在 F1 分数上超过了 GPTZero 的 183.8%。
Aug, 2023
研究聚焦于大型语言模型在编程教育中的应用,特别关注人工智能生成内容检测器在学术不端中的潜在漏洞,并通过生成代码来检验大型语言模型对于绕过检测的努力。研究结果表明现有的人工智能生成内容检测器在区别人工编写的代码和人工智能生成的代码方面表现不佳。
Jan, 2024
本文针对 AI 基模型带来的 AI 生成内容(AIGC)涉及的工作原理、安全和隐私威胁、最新解决方案、以及未来挑战等方面做出了深入调查,主要讨论了 AIGC 的架构、工作模式和关键特征、安全和隐私威胁、道德和社会影响,最后针对 AIGC 未来的挑战和研究方向进行了总结。
May, 2023