LLM-Detector: 优化 AI 生成的中文文本检测的开源 LLM 指令调优
该研究对大型语言模型生成文本的检测技术现状及未来方向进行了综述,并提出了发展全面的评估指标和威胁控制方案等必要措施。关注点包括大型语言模型的开源威胁和其所产生的可能的误传信息问题。
Feb, 2023
本文构建了一个综合的中英文双语标杆来评估主流的 AI 生成文本检测器,并将 LLM 文本生成划分为创建、更新、删除、重写和翻译五个不同的操作,为各种场景提供优化 AI 生成文本检测器的关键洞察和改进方向。
Jun, 2024
大语言模型生成的文本检测是一项关键任务,需要开发检测器来区分其文本是否由大语言模型生成,并呼吁加强相关研究以推进负责任的人工智能实现。
Oct, 2023
对大规模语言模型在超出预定义领域内意图检测任务中的能力进行了综合评估,揭示了它们的优势和劣势,发现 LLMs 表现出强大的零样本和少样本能力,但与使用完整资源进行微调的模型相比仍存在劣势。通过进一步的分析实验,讨论总结了 LLMs 面临的挑战,并提出了对未来工作的指导,包括注入领域知识、加强从领域内到超领域的知识转移和理解长指令。
Feb, 2024
本论文介绍了我们在 SemEval2024 Task8 中用于检测跨各个领域的机器生成文本的方法,包括统计、神经网络和预训练模型方法,并通过深入的错误分析评估了这些方法的有效性。在单语和多语境下,我们的方法在子任务 A 单语上获得 86.9%的准确率,在子任务 B 上获得 83.7%的准确率。此外,我们还强调了未来研究中的挑战和重要因素。
Mar, 2024
近年来,大型语言模型(LLMs)已经融入我们的日常生活,成为完成任务的宝贵助手。本研究提出了一个名为 ViDetect 的数据集,包含 6800 个样本的越南语文章,其中 3400 个样本由人类撰写,其余由 LLMs 生成,旨在检测 AI 生成的文本。我们使用 ViT5、BartPho、PhoBERT、mDeberta V3 和 mBERT 等最先进的方法进行评估。这些结果不仅对于检测 AI 生成的文本的研究的日益增长的基础做出了贡献,还展示了不同方法在越南语境下的适应性和有效性。该研究为未来的 AI 生成文本检测的进展奠定了基础,并为自然语言处理领域的研究人员提供了宝贵的见解。
May, 2024
通过对人类写作文本和基于大型语言模型的生成文本进行比较研究,该论文展示了在不同文体中对于人类文本和生成文本进行分类的机器学习模型的效果,同时指出在故事写作方面识别生成文本的困难性,为未来在人工智能文本识别方面提供了启示和研究数据集。
Jul, 2023
本文提出了一种高效、安全、可扩展的检测工具 LLMDet,通过利用预训练获得的模型下一个令牌概率的先验信息,计算文本的代理困惑度,并使用通过代理困惑度测量的模型的自身水印信息来检测文本的来源;同时,在识别人类撰写的文本方面实现了 97.97% 的识别准确率,并在识别生成语言模型方面显示出了很好的结果。
May, 2023
我们提供了对大语言模型的生成文本影响的全面分析,并强调了当前最先进的 GPT 检测器中可能存在的鲁棒性缺失。为了解决学术写作中滥用大语言模型的问题,我们提出了一种基于参考文本的孪生检测器 Synthetic-Siamese,将一对文本作为查询和参考,该方法有效解决了以前检测器(OpenAI detector 和 DetectGPT)的鲁棒性缺失,并将基线性能在实际学术写作场景中提高了约 67% 至 95%。
Jan, 2024