运用大型语言模型进行代数错误分类
研究表明,学习者参与制作解释以支持他们的推理过程,对学习有积极影响。本文介绍了两种方法,可供教师在在线课程中提供实时反馈,并介绍了采用大型语言模型促进的命名实体识别的增强方法的进展。
Jun, 2023
本文提出了一种基于 “数理语言处理” 的数据驱动框架来自动评分开放性数学问题实现的方案,采用不同聚类方法组成的三层模型对多步解决方案进行追踪和错误定位,并在真实的慕课数据上进行了测试和验证,说明它可以极大地减少大规模教育平台上所需的人力投入。
Jan, 2015
使用大型语言模型(LLMs)探索错误检测在探究式学习中的应用,并解决学生实验协议等复杂、不完整、甚至矛盾和多样化的数据中的逻辑错误识别的困难。
Aug, 2023
该研究调查两个生成模型在评估真实教师在应对学生数学错误方面的表现能力,发现 GPT-3.5-Turbo 和 GPT-4 都能够熟练评估与学生犯错有关的标准,但在识别学生错误的情况下存在局限性。未来的研究将致力于通过评估更多对话数据集和评估学习转化来提升泛化能力,进一步分析教师在真实场景中应对学生数学错误的表现。
Jan, 2024
基于大语言模型的自动生成反馈在智能辅导系统和在线学习平台中具有潜力来提高许多学生的学习效果,本文针对自动生成和评估反馈的问题,提出了数学反馈评估标准和反馈生成框架,通过强化学习优化反馈的正确性和一致性,并通过案例研究定性分析了生成和评估系统。
Mar, 2024
我们探索了大型语言模型在辅导教师补救学生错误中的潜力,并通过评估表明,尽管模型不断改进了原始辅导响应,但仍无法达到经验丰富的数学教师的水平。这项工作揭示了当前大型语言模型在提供规模化高质量学习体验方面的潜力和局限性。
Oct, 2023
智能辅导系统中的自动反馈组件通常采用基于模板的方法,但在开放式数学问题中存在大量不同的错误类型。本研究使用大型语言模型来生成开放式数学问题的反馈,发现尽管能够学习反馈的格式,但无法完全理解学生的数学错误。
May, 2024
本研究提出了一种自动学习可解释规则的元学习方法,应用在 NLP 系统上,用以了解和改善系统的错误表现,并取得了一定的性能提升。该方法通过对验证数据的错误案例进行元特征提取以及规则学习,成功地为 VilBERT 和 RoBERTa 建立了可解释规则,进一步提高了系统表现。
Jan, 2022