使用预训练语言模型实现可扩展的教育问题生成
本文重点探索了如何以教育为目的改进自动化问题生成技术,通过了解教师如何构建问题并确认增强NLP模型的触点来提高其可用性。作者观察到教师在使用NLP系统来支持问题设计方面表现出极大的兴趣,但实践中仍未被广泛采用。因此,作者呼吁建立强调教师控制和可解释性的有效人-NLP协作的QG系统,提供过程支持,使用模块化设计,处理各种输入来源。
Apr, 2022
本研究介绍了一个高质量的包含3397个样本的数据集,其中包含多项选择题、答案(包括干扰项)以及其来源文档,可用于问题与干扰项的生成以及探索新的挑战,同时伴随着 Bloom 的认知复杂性水平。所有问题均由专业人员生成以确保其符合教育及学习标准,该数据集对于教育域的研究和评估具有重要价值。
Oct, 2022
本研究基于大型语言模型开发了EduQG,该模型能够自动生成出优质的教育问题,以实现在数字化教育材料和可扩展的e-learning系统背景下的AI协助个性化学习。
Dec, 2022
通过人工评估,控制型文本生成与问题分类法相结合生成的高质量、多样化问题,被认为对教师和学生的教学内容质量有较大的提升作用,具有在教学环境中广泛使用的潜力。
Apr, 2023
利用基于提示的技术生成描述性和推理性问题是一个具有挑战性和耗时的任务。本研究提出了一种新方法,利用基于提示的技术生成描述性和推理性问题。我们通过精选的NCERT教科书的丰富内容,创建了一个名为EduProbe的新的问题生成数据集。我们针对此数据集调查了几种基于提示的问题生成方法,并使用预训练的大型语言模型进行了微调。通过自动评估,我们发现T5(使用长提示)表现优于其他模型,但仍然低于人类基准。在人类评估标准下,TextDavinci-003通常在各种提示设置下表现更好。即使在人类评估标准下,问题生成模型也大多低于人类基准。
Dec, 2023
应用基于大型语言模型的问题生成方法,考虑教学需求,通过实验验证教师对自动生成问题的喜好,结果显示教师更愿意使用自动生成的问题写测验,并且这样的测验在质量上不亚于手写版本,甚至可以提高测验质量,显示了课堂环境中大规模使用问题生成的潜力。
Jan, 2024
本研究探讨了大型语言模型(LLMs)在教育环境中自动生成问题的有效性,并比较了三种模型在无微调情况下从大学幻灯片文本中生成问题的能力。研究发现,GPT-3.5和Llama 2-Chat 13B在问题的清晰度和问答对应性方面略优于Flan T5 XXL,特别是GPT-3.5在根据输入答案定制问题方面表现突出。
Jul, 2024
该研究针对教育者在生成高质量教育问题时面临的挑战,提出了一种利用大型语言模型(LLMs)实现自动化生成教育问题的新方法。研究表明,采用适当的信息提示,LLMs能够生成符合不同认知水平的相关且高质量的问题,同时表现出LLMs在能力上的显著差异,并且发现自动评估无法与人工评估相媲美。
Aug, 2024
本研究探讨了大型语言模型(LLMs)在教育领域中自动问题生成和答案评估的转型潜力,填补了高效学习工具的空白。通过解析LLMs的工作机制以及创新的提示技术,研究展示了如何生成多样化和相关性强的问题来适应学习需求,同时实现了准确的答案评估和反馈,具有显著的教育提升潜力。
Oct, 2024