大型语言模型生成的教育问题有多有用?
文章探讨了如何使用基于学习理论的自动提问生成器来生成能够提升教材阅读理解的问题,通过教育专家的实验评估,结果表明生成的问题语言质量高,并且询问了与给定文本相关的中心信息,在特定学习场景中可以促进阅读理解。
Oct, 2021
本文重点探索了如何以教育为目的改进自动化问题生成技术,通过了解教师如何构建问题并确认增强NLP模型的触点来提高其可用性。作者观察到教师在使用NLP系统来支持问题设计方面表现出极大的兴趣,但实践中仍未被广泛采用。因此,作者呼吁建立强调教师控制和可解释性的有效人-NLP协作的QG系统,提供过程支持,使用模块化设计,处理各种输入来源。
Apr, 2022
本篇研究旨在利用标准化的NLG指标来检测QGen模型所带来的实际效果,并以教师自动生成阅读理解测试为例进行实际应用测试。虽然我们发现近期QGen取得了显著进展,但最佳模型仅得到了10名教师中的68.4%同意接受的问题,同时也发现需要新的自动度量标准来指导QGen研究前进。
May, 2022
本研究基于大型语言模型开发了EduQG,该模型能够自动生成出优质的教育问题,以实现在数字化教育材料和可扩展的e-learning系统背景下的AI协助个性化学习。
Dec, 2022
本研究开发了一个基于语言模型的教育问题生成模型,通过在科学文本和科学问题数据上进行进一步的预训练和微调,能够生成优质的教育问题,从而在自我评估和在线教育方面具有重要的应用潜力。
May, 2023
这项研究通过引入一个新的指导属性“问题明确度”,旨在丰富NLP中问题生成(QG)的可控性,提供了在特定的叙事元素下生成问题的显式和隐式wh-questions的控制方法,代码公开于github。
Jun, 2023
设计并评估了一个自动化问题生成工具,以便用于学校的形成性和总结性评估,通过使用基于Transformer的语言模型和生成技术,实现了模块化框架,从文本内容中自动生成多项选择题,并进行了广泛的定量和定性评估。
Sep, 2023
应用基于大型语言模型的问题生成方法,考虑教学需求,通过实验验证教师对自动生成问题的喜好,结果显示教师更愿意使用自动生成的问题写测验,并且这样的测验在质量上不亚于手写版本,甚至可以提高测验质量,显示了课堂环境中大规模使用问题生成的潜力。
Jan, 2024
本研究探讨了大型语言模型(LLMs)在教育环境中自动生成问题的有效性,并比较了三种模型在无微调情况下从大学幻灯片文本中生成问题的能力。研究发现,GPT-3.5和Llama 2-Chat 13B在问题的清晰度和问答对应性方面略优于Flan T5 XXL,特别是GPT-3.5在根据输入答案定制问题方面表现突出。
Jul, 2024
该研究针对教育者在生成高质量教育问题时面临的挑战,提出了一种利用大型语言模型(LLMs)实现自动化生成教育问题的新方法。研究表明,采用适当的信息提示,LLMs能够生成符合不同认知水平的相关且高质量的问题,同时表现出LLMs在能力上的显著差异,并且发现自动评估无法与人工评估相媲美。
Aug, 2024