通过语言适应特征检测机器人生成的文本在人机交互中的使用
使用无监督学习技术,通过聚类(精确和模糊)和信息技术相结合,构建了一个强大的模型,可以检测不同类型的生成文本,发现生成的文本更加混乱,而文学作品更加复杂,在人类文本的聚类结果中,模糊聚类更多,而生成的文本聚类更加紧凑和明确。
Nov, 2023
通过对人类写作文本和基于大型语言模型的生成文本进行比较研究,该论文展示了在不同文体中对于人类文本和生成文本进行分类的机器学习模型的效果,同时指出在故事写作方面识别生成文本的困难性,为未来在人工智能文本识别方面提供了启示和研究数据集。
Jul, 2023
用于区分 ChatGPT 生成文本和人类生成文本的当前方法的综述,包括构建用于检测 ChatGPT 生成文本的不同数据集,采用的各种方法,对人类与 ChatGPT 生成文本特征的定性分析,并最终总结研究结果为一般性见解。
Sep, 2023
对于检测机器生成文本的分类性能进行了批判性研究,发现分类器对文体变化和文本复杂性的差异非常敏感,在某些情况下完全退化为随机分类器,同时易于阅读的文本易于被误分类,而复杂文本的性能较高。
Jun, 2024
本文研究了如何使用最先进的神经语言模型使人工创作的文本过渡为文本生成,并且展示了该任务上的众议员的技能差异。通过比较多种变量的影响,我们收集了 RoFT 数据集,以鼓励未来在人工检测和评估生成的文本方面进行更多的研究。
Dec, 2022
本文是关于机器生成文本和自然语言生成领域的综述。研究表明,机器生成文本与人类作者的文本越来越难以区分,因此我们讨论了现代自然语言生成系统带来的威胁模型,并对文本检测方法进行了最全面的综述。本文进一步讨论了机器生成文本的安全和社会背景,并提出了在未来工作中需要考虑的最关键威胁模型,以及确保检测系统本身通过公正、稳健和负责任的方式展示其信任性。
Oct, 2022
利用启发式方法,本研究发现 1,140 个通过 Twitter botnet 使用 ChatGPT 生成人类风格内容的虚假个人的密集集群,并通过人工注释验证。ChatGPT 生成的内容宣传可疑网站并传播有害评论。尽管 AI botnet 中的账户可以通过其协调模式检测到,但目前最先进的大语言模型内容分类器无法区分它们和真实用户账户。这些发现强调了 AI 助推社交机器人带来的威胁。
Jul, 2023