基于预训练 GPT-2 模型的生成式人工智能文本生成方法
本文提出了一种新的评估框架 GPTScore,利用生成预训练模型的崭新能力对生成的文本进行评分,实验结果表明该方法能够高效地实现对文本的定制化、多方面评估,不需要注解样本。
Feb, 2023
本研究通过使用预训练生成式转换器 (GPT) 模型自动进行文献调研,评估在数据驱动的语音增强方法领域的 116 篇文章上展现的模型的能力和局限性,尽管自动化文献调研在声学领域具有巨大潜力,但仍需要改进以更清晰准确地回答技术问题。
Oct, 2023
本研究旨在创建一个多领域数据集,以测试用于检测高校和其他研究机构使用的人工生成信息的最先进 API 和工具。六种不同的人工智能文本识别系统,包括 “GPTkit”,“GPTZero”,“Originality”,“Sapling”,“Writer” 和 “Zylalab”,准确率介于 55.29% 至 97.0% 之间。尽管所有工具在评估中表现良好,但原创性在各方面表现尤为出色。
Sep, 2023
本研究提出了一种基于机器学习的解决方案,可以识别 ChatGPT 生成的文本,并在分类过程中比较分析了共 11 种机器学习和深度学习算法。在 Kaggle 数据集上测试,该算法在由 GPT-3.5 生成的语料库上表现出 77% 的准确率。
May, 2023
ChatGPT 是生成人工智能领域的重要里程碑,引发了新一轮关于先进模型与任务的研究及创新,并带来了无数创新性工具和挑战。
Nov, 2023
基于机器学习模型对文本数据进行评分的使用已广泛应用于自然语言处理、信息检索、搜索和推荐以及在线内容的可信度评估等领域。这项研究通过实证评估以人工创作和生成预训练变换器(GPT)的文本评估模型之间的差异,发现转换器预训练语言模型(PLM)相对于传统的深度学习和基于特征的机器学习模型更准确地评分人工文本质量,但相对于人工创作的文档,GPT 生成的文本评分平均要高出 10-15%。这一研究对于文本分类设置中的自动评分受到生成 AI 的干扰具有重要的意义。
Sep, 2023
使用 ChatGPT 3.5 和 4 对研究论文进行分析以提高科学文献调查的有效性,选择 “人工智能在乳腺癌治疗中的应用” 作为研究主题,使用 ChatGPT 模型自动识别相关论文、对论文按范围进行组织和确定调查论文的关键信息,结果显示 GPT-4 能以 77.3% 准确率识别研究论文类别,50% 的论文的范围能被 GPT-4 正确识别,且 67% 的模型给出的原因是专家完全同意的。
Mar, 2024
本文讨论 OpenAIs ChatGPT,一种用于文本型用户请求(即聊天机器人)的生成式预训练转换器。讨论了 ChatGPT 及类似模型背后的历史和原则,以及其对学术界和学术研究出版的潜在影响。ChatGPT 被认为是自动准备论文和其他类型学术手稿的潜在模型。此外,还讨论了可能出现的潜在伦理问题,并将其置于人工智能、机器学习和自然语言处理的更广泛进展的背景之下。
Mar, 2023
本研究对 GPT 模型在机器翻译方面的表现进行了全面评估,涵盖了许多方面,如与最新研究和商业系统的不同 GPT 模型的质量比较,提示策略的效果,域转换和文档级翻译的鲁棒性。实验覆盖了 18 个不同的翻译方向,包括高资源和低资源语言以及非以英语为中心的翻译,评估了三个 GPT 模型:ChatGPT,GPT3.5 (text-davinci-003) 和 text-davinci-002。实验结果表明,对于高资源语言,GPT 模型达到了极具竞争力的翻译质量,而对于低资源语言的能力却有限,同时也证明了混合方法(将 GPT 模型与其他翻译系统相结合)可以进一步提高翻译质量。我们进行了全面的分析和人工评估,以进一步了解 GPT 翻译的特点。我们希望我们的论文为研究人员和实践者提供有价值的见解,并有助于更好地理解 GPT 模型在翻译方面的潜力和局限性。
Feb, 2023