STEM领域多模态答卷的自动评估
本文提出了一种基于“数理语言处理”的数据驱动框架来自动评分开放性数学问题实现的方案,采用不同聚类方法组成的三层模型对多步解决方案进行追踪和错误定位,并在真实的慕课数据上进行了测试和验证,说明它可以极大地减少大规模教育平台上所需的人力投入。
Jan, 2015
本研究探讨基于卷积神经网络和前馈神经网络的自动化打分方法在国际数学和科学考试中将学生的绘画或图像回答分类的准确性。研究发现,相对于前馈神经网络,卷积神经网络能够更加精确地分类图像响应,并且可以取代人工评分,提高成绩评分的有效性和可比性。
Jan, 2022
本文研究了自动短答案评分问题,提出了一种新的基于 MathBERT 及上下文学习方法的框架,并在真实数据集上进行了评估,证明该框架对于之前未见过的数学问题的表现优于现有方法。
May, 2022
该研究通过应用大型语言模型(LLMs),特别是GPT-3.5和GPT-4,结合思维链(CoT),对学生科学评估中的写作回答进行自动评分的应用进行了调查,并专注于克服先前限制研究人员和教育工作者使用自动评估工具的可访问性、技术复杂性和解释性方面的挑战。研究结果表明,GPT-4相对于GPT-3.5在各种评分任务中表现出更高的性能,并且使用CoT能够提高评分准确性,特别是当与项目描述和评分标准一起使用时。
Nov, 2023
通过对学生反馈进行深入分析并提供学生视觉亮点,本文引入了一种名为“Marking”的新型评分任务,以增强自动评分系统,与传统系统不同,通过将学生反应进行正确、错误或无关的分类,并检测与标准答案的遗漏,我们将之作为自然语言推理任务的扩展,通过训练语言模型识别学生响应的蕴含、矛盾和中性,同时识别标准答案的遗漏,我们使用BERT和RoBERTa等变压器模型,并结合e-SNLI数据集进行智能训练,在基准结果中展示了“Marking”任务的复杂性,为未来的研究设定了明确的发展方向,我们的工作不仅为AI驱动的教育评估工具的研究开辟了新的途径,还为AI教育社区提供了有价值的基准,以便今后的改进。
Apr, 2024
通过基于大规模的大学课程考试数据训练的神经网络模型,在历史考试数据上的实验证明了自动化简短回答评分系统的高准确性和一致性,这为减少人为主观性、改善评分一致性以提高公正性提供了有前途的解决方案。
May, 2024
本文着重探讨人工智能(AI)和机器学习(ML)在科学评估中的转变作用,强调科学评估需要从概念学习转向知识运用,并介绍了基于ML的科学评估的现状、准确性评分框架以及未来方向和挑战。
Apr, 2024
我们提出了一个基于大型语言模型的评分系统,包括开发评分标准,提供准确一致的得分和定制化反馈,以及进行后评估,并在新的数据集上进行了广泛实验,验证了我们的方法的有效性。
May, 2024
提供反馈在教育环境中至关重要,该论文提出一种自动评分的新方法,通过引入大型语言模型进行反馈生成,以增强实际教育环境中的教学质量。
Jun, 2024
本研究针对现有文献中尚未充分探讨的人工智能(AI)辅助批改手写答案卷的有效性,提出了一种AI辅助批改的流程。通过在真实考试中评估该流程的实施,结果表明使用AI辅助可以显著降低批改时间,平均节省31%的单个回答批改时间及33%的单个答案卷的批改时间,显示出其潜在影响和实用价值。
Aug, 2024