用科学文本进行预训练,提高教育问题生成质量
文章探讨了如何使用基于学习理论的自动提问生成器来生成能够提升教材阅读理解的问题,通过教育专家的实验评估,结果表明生成的问题语言质量高,并且询问了与给定文本相关的中心信息,在特定学习场景中可以促进阅读理解。
Oct, 2021
本文重点探索了如何以教育为目的改进自动化问题生成技术,通过了解教师如何构建问题并确认增强NLP模型的触点来提高其可用性。作者观察到教师在使用NLP系统来支持问题设计方面表现出极大的兴趣,但实践中仍未被广泛采用。因此,作者呼吁建立强调教师控制和可解释性的有效人-NLP协作的QG系统,提供过程支持,使用模块化设计,处理各种输入来源。
Apr, 2022
通过人工评估,控制型文本生成与问题分类法相结合生成的高质量、多样化问题,被认为对教师和学生的教学内容质量有较大的提升作用,具有在教学环境中广泛使用的潜力。
Apr, 2023
本研究开发了一个基于语言模型的教育问题生成模型,通过在科学文本和科学问题数据上进行进一步的预训练和微调,能够生成优质的教育问题,从而在自我评估和在线教育方面具有重要的应用潜力。
May, 2023
设计并评估了一个自动化问题生成工具,以便用于学校的形成性和总结性评估,通过使用基于Transformer的语言模型和生成技术,实现了模块化框架,从文本内容中自动生成多项选择题,并进行了广泛的定量和定性评估。
Sep, 2023
利用基于提示的技术生成描述性和推理性问题是一个具有挑战性和耗时的任务。本研究提出了一种新方法,利用基于提示的技术生成描述性和推理性问题。我们通过精选的NCERT教科书的丰富内容,创建了一个名为EduProbe的新的问题生成数据集。我们针对此数据集调查了几种基于提示的问题生成方法,并使用预训练的大型语言模型进行了微调。通过自动评估,我们发现T5(使用长提示)表现优于其他模型,但仍然低于人类基准。在人类评估标准下,TextDavinci-003通常在各种提示设置下表现更好。即使在人类评估标准下,问题生成模型也大多低于人类基准。
Dec, 2023
应用基于大型语言模型的问题生成方法,考虑教学需求,通过实验验证教师对自动生成问题的喜好,结果显示教师更愿意使用自动生成的问题写测验,并且这样的测验在质量上不亚于手写版本,甚至可以提高测验质量,显示了课堂环境中大规模使用问题生成的潜力。
Jan, 2024
该研究针对教育者在生成高质量教育问题时面临的挑战,提出了一种利用大型语言模型(LLMs)实现自动化生成教育问题的新方法。研究表明,采用适当的信息提示,LLMs能够生成符合不同认知水平的相关且高质量的问题,同时表现出LLMs在能力上的显著差异,并且发现自动评估无法与人工评估相媲美。
Aug, 2024
本研究探讨了大型语言模型(LLMs)在教育领域中自动问题生成和答案评估的转型潜力,填补了高效学习工具的空白。通过解析LLMs的工作机制以及创新的提示技术,研究展示了如何生成多样化和相关性强的问题来适应学习需求,同时实现了准确的答案评估和反馈,具有显著的教育提升潜力。
Oct, 2024