May, 2024

可解释的神经叠加模型自动评分

TL;DR使用自动短答案评分(ASAG)模型可以减轻评分的时间负担,同时鼓励教育者经常在课程中引入开放性问题。然而,目前最先进的 ASAG 模型是大型神经网络(NN),常被描述为 “黑匣子”,对于生成的输出哪些特征是重要的没有解释。为了创建一个强大且可解释的 ASAG 模型,我们尝试使用一种称为神经可添加模型(NAM)的模型类型,将 NN 的性能与可解释性模型的性能结合起来。我们使用学习科学中的知识整合(KI)框架指导特征工程,创建反映学生回答中是否包含某些思想的输入。我们假设指示预定义思想的包含(或排除)作为特征将足以使 NAM 具有良好的预测能力和可解释性,因为这可以指导使用 KI 评分标准的人工评分人员。我们使用相同的特征比较 NAM 和另一个可解释模型逻辑回归的性能,以及不需要特征工程的不可解释的神经模型 DeBERTa。