通过对比 ChatGPT 与人类写作的 argumentative 学生论文,我们系统地评估了 AI 生成内容的质量,结果表明 ChatGPT 生成的论文在质量上要高于人类写作。
Apr, 2023
ChatGPT 的变种 GPT-3.5 和 GPT-4 在大学级别的物理编码作业中,通过性能评估及有无提示工程与仅有学生作品和学生与 GPT-4 贡献混合类别相比较,共收集了 300 个数据点。研究发现,尽管 AI 生成的作品接近于大学生的质量,但常常可以被人类评估者发现。
Mar, 2024
该研究比较了 ChatGPT 和 32 门大学课程学生的表现,发现 ChatGPT 在许多课程中的表现相当,甚至优于许多学生。此外,其使用也难以被 AI 文本分类器可靠地检测出来,并且出现了学生使用该工具和教育者将其视为抄袭的共识,这些发现为 AI 融入教育框架的政策讨论提供了指导。
May, 2023
ChatGPT 的使用会加速编程测试的完成速度,为学生提供参考代码,但存在学术诚信问题和可能的抄袭风险。
Aug, 2023
ChatGPT 以小样本的实验方法,通过对英文作文的自动评估,揭示了其在自动化作文评分方面的能力和限制,尽管结果存在回归效应,但有效的 ChatGPT 提示的设计和实施需要深厚的领域专业知识和技术能力。
Jan, 2024
本研究旨在探究智能 AI 写作机器人 ChatGPT 生成的学术论文内容的原创性,并使用两种常用的抄袭检测工具评估了 ChatGPT 生成的 50 篇论文的独创性。结果表明,ChatGPT 在许多主题上具有高度的原创性,并有潜力生成具有复杂文本输出能力的内容,而传统的抄袭检测工具不易检测到这些内容。同时,本文还讨论了 AI 技术对教育的影响和机构需要采取适当措施来缓解潜在的抄袭问题。
Feb, 2023
本研究通过 Coh-Metrix 比较了 ChatGPT 和 CIE 学生在叙事主题上的写作表现,结果表明,在初始版本中,ChatGPT 在叙述性、词汇具体性和指代连贯性方面优于人类作家,但在句法简单性和深度连贯性方面劣于人类作家。经过多次修订后,ChatGPT 在句法简单性方面得到了改善,但在深度连贯性方面仍远不如 CIE 学生的写作。另外,讨论组成分的相关性分析表明,ChatGPT 和人类作家的叙事性与指代连贯性呈正相关,但各组内的相关性不同。
Mar, 2023
ChatGPT 4.0 在评估期刊文章上进行研究评估的准确性方面仍不足,需要进一步改进和控制使用。
Feb, 2024
本研究论文讨论了将人工智能用于高等教育中的教学与学习,并以 ChatGPT 作为工具,以计算机科学基础编程课程为例进行了教学和评估的探讨,结果显示使用 ChatGPT 的学生在得分上有优势,但提交的代码存在不一致和不准确的情况。
ChatGPT 在学习和评估的功能上对各种学习和评估格式产生了显著影响,但在生发参考文献等方面存在限制,因此需要对生成的结果进行持续验证,写作学生论文仍然需要学习者的有意义参与。
Oct, 2023