基于生成型 AI 创建的上下文个性化编程练习的评估
本文评估了GPT在大学的Python编程课程中通过评估的能力,并研究了GPT模型如何利用自动评估程序提供的反馈。研究发现,这些模型都不能完全通过Python编程课程中的各种评估,但简单应用它们可以使学习者在入门和中级课程中获得非常好的分数。然而,这些模型存在某些局限性,如对需要复杂推理步骤的练习处理能力较差。因此,本文建议教师改变评估方式,使GPT变成学习者的有价值的辅助工具,而不是全自动解决方案。
Mar, 2023
本研究系统评估了两种模型(基于GPT-3.5的ChatGPT和GPT-4),并将它们与人类导师在各种情形下的表现进行比较。我们使用五个Python编程问题和来自在线平台的真实有bug程序进行评估,并使用基于专家的注释进行评估。结果表明,GPT-4明显优于ChatGPT,并在某些场景下接近人类导师的表现,但在某些情况下仍表现不佳。
Jun, 2023
本实验研究使用 OpenAI 的 GPT-3.5模型在一个自动化的评估平台上生成学生编程作业的个性化提示,实验小组依赖平台反馈较少但在启用 GPT提示时表现得更好。
Jun, 2023
通过分析GPT-4在高等教育的Python编程课程中生成的多项选择题(MCQs),我们发现GPT-4能够产生具有清晰语言、单一正确选项和高质量干扰项的MCQs,并且这些生成的题目与学习目标高度一致。这些研究结果对于希望充分利用最先进生成模型来支持多项选择题的编写工作的教育工作者具有潜在价值。
Dec, 2023
ChatGPT在自动化给予Java编程作业反馈方面的可行性进行了研究,调查结果表明学生们普遍认为ChatGPT反馈与Shute建立的形成性反馈准则相一致,他们更喜欢包含他们代码的反馈,此研究还提供了改进ChatGPT生成反馈的具体见解。
Dec, 2023
基于其让学习者更好地掌握编程技能和个性化编程指导的目标,本文提出了一种名为PERS的新模型,通过模拟学习者复杂的编程行为,并结合Felder-Silverman学习风格模型,实现对编程行为的全面描述和个性化编程指导的有效性验证。
Feb, 2024
该论文探讨了ChatGPT在为大一学生量身定制的Python编程课程中的学习影响,通过分析来自调查、开放式问题和学生-ChatGPT对话数据的回应,旨在全面了解ChatGPT的实用性,同时识别学生认知中的优点和限制,揭示出学生对ChatGPT普遍的积极接受态度,并为增强编程教育体验的角色提供了见解。这些发现对于AI在教育中的潜力以及未来研究和应用的方向具有广泛的意义。
Mar, 2024
本研究针对入门编程课程中初学者因语法和调试问题而面临的学习困难,提出通过自然语言提示活动来增强问题解决能力的创新方法。研究发现,学生在自然语言任务上的表现与自我报告的学习困难关系较弱,表明此方法可以吸引更广泛的学生群体,并培养与AI编程模型沟通的新技能。
Oct, 2024
本研究探讨了学生在不同计算课程中对生成性人工智能工具的使用和看法,填补了现有文献对此话题的不足。通过对多个程序和课程的学生进行连续调查,揭示了学生背景知识和课程学习目标如何影响其对这些工具的接受度及使用情况。研究发现,学生对生成性人工智能工具的认知和应用随着时间而变化,提供了关于如何在课程中有效整合这些工具的新见解。
Oct, 2024