这项研究通过引入一个新的指导属性 “问题明确度”,旨在丰富 NLP 中问题生成(QG)的可控性,提供了在特定的叙事元素下生成问题的显式和隐式 wh-questions 的控制方法,代码公开于 github。
Jun, 2023
本文重点探索了如何以教育为目的改进自动化问题生成技术,通过了解教师如何构建问题并确认增强 NLP 模型的触点来提高其可用性。作者观察到教师在使用 NLP 系统来支持问题设计方面表现出极大的兴趣,但实践中仍未被广泛采用。因此,作者呼吁建立强调教师控制和可解释性的有效人 - NLP 协作的 QG 系统,提供过程支持,使用模块化设计,处理各种输入来源。
Apr, 2022
本文研究了 “可控难度问题生成” 任务,重新定义了问题难度度量,并通过提出一个逐步重写的框架,根据抽取的推理链实现了逐渐增加问题难度的效果。我们还构建了一个自动数据集来测试我们的方法性能。
May, 2021
本文研究阅读理解数据集中问题难度的难易级别,并提出了一种名为 DQG 的新问题生成设置,用于生成符合指定难度标签的阅读理解问题。我们提出了一个端到端的框架来生成指定难度级别的问题,并制备了第一个具有难度标签的阅读理解问题数据集。结果表明,我们的框架生成的问题不仅在 BLEU 等度量标准上具有更好的质量,而且符合指定的难度标签。
Jul, 2018
本篇研究旨在利用标准化的 NLG 指标来检测 QGen 模型所带来的实际效果,并以教师自动生成阅读理解测试为例进行实际应用测试。虽然我们发现近期 QGen 取得了显著进展,但最佳模型仅得到了 10 名教师中的 68.4%同意接受的问题,同时也发现需要新的自动度量标准来指导 QGen 研究前进。
May, 2022
提出使用 GPT-3 等大型语言模型来进行问题生成并采用多个(伪)参考答案进行评估,以更全面地评估 QG 技术潜力的方法。实验结果表明,使用多个参考答案进行 QG 评估比使用单个参考答案更为有效,并且更能与人类评估相符合。
May, 2023
本文提出了一种混合专家 (MoE) 作为软模板选择器的端到端神经复杂度可控问句生成模型,该模型引入一种新颖的跨域复杂度估计器来评估问题的复杂性,实验结果表明我们的模型优于同类方法,并且我们的复杂度估计器在领域内外的情况下比基线方法更准确。
Oct, 2021
本文提出了一种新的封闭式问答模型,旨在通过对比学习和答案重构模块更好地理解长形式摘要回答的语义并在其参数中存储更多信息,通过实验验证了该模型在公共数据集和新的 WikiCQA 数据集上的有效性,并展示了如何利用该模型改进现有的问答系统。
Oct, 2022
本研究开发了一个基于语言模型的教育问题生成模型,通过在科学文本和科学问题数据上进行进一步的预训练和微调,能够生成优质的教育问题,从而在自我评估和在线教育方面具有重要的应用潜力。
本研究基于大型语言模型开发了 EduQG,该模型能够自动生成出优质的教育问题,以实现在数字化教育材料和可扩展的 e-learning 系统背景下的 AI 协助个性化学习。
Dec, 2022