本文重点探索了如何以教育为目的改进自动化问题生成技术,通过了解教师如何构建问题并确认增强 NLP 模型的触点来提高其可用性。作者观察到教师在使用 NLP 系统来支持问题设计方面表现出极大的兴趣,但实践中仍未被广泛采用。因此,作者呼吁建立强调教师控制和可解释性的有效人 - NLP 协作的 QG 系统,提供过程支持,使用模块化设计,处理各种输入来源。
Apr, 2022
本文提出一种基于无监督学习的问句生成方法,使用自由可得的新闻标题数据通过句法分析、命名实体识别和语义角色标注启发式技术转换成合适的问题,然后与原始新闻文章一起训练一个端到端的神经问句生成模型;通过在多项数据集上的实验证明,该方法生成的人工智能数据集用于训练问答模型,其性能远超过基于无监督学习的问答模型的现有成果。
Sep, 2021
这项研究通过引入一个新的指导属性 “问题明确度”,旨在丰富 NLP 中问题生成(QG)的可控性,提供了在特定的叙事元素下生成问题的显式和隐式 wh-questions 的控制方法,代码公开于 github。
Jun, 2023
研究了如何使用自动生成的问题作为智能辅导系统中个性化反馈的一种方法,此方法利用了因果分析和自然语言处理转换器模型以识别学生答案中的正确和错误部分,并训练了几个模型,以促使学生朝向正确的答案,并最终显示该方法对学生的学习效果提升达到 45%,拥有潜力改善生成式问答系统。
Jun, 2022
本文提出一种基于词性分析的问句生成模型 Interrogative-Word-Aware Question Generation(IWAQG),在 SQuAD 数据集上,相较于已有模型表现有了显著提升,成为了新的最优模型。
Oct, 2019
本篇研究旨在利用标准化的 NLG 指标来检测 QGen 模型所带来的实际效果,并以教师自动生成阅读理解测试为例进行实际应用测试。虽然我们发现近期 QGen 取得了显著进展,但最佳模型仅得到了 10 名教师中的 68.4%同意接受的问题,同时也发现需要新的自动度量标准来指导 QGen 研究前进。
May, 2022
本文介绍了我们使用传统语言学方法和多种机器学习技术生成英语非结构化文本问句的框架,并且加入了问题评估模块,最终证明我们的生成问题质量优于其他最好的系统,并且与人类创建的问题相当。
提出使用 GPT-3 等大型语言模型来进行问题生成并采用多个(伪)参考答案进行评估,以更全面地评估 QG 技术潜力的方法。实验结果表明,使用多个参考答案进行 QG 评估比使用单个参考答案更为有效,并且更能与人类评估相符合。
May, 2023
本研究提出了一种基于 Clue Guided Copy Network 的自动问答生成模型,通过多任务学习和复制机制的应用,显著提高了问题生成的性能并超越了所有现有的神经网络问题生成模型。
Feb, 2019
该研究采用基于注意力机制的序列自学习模型进行阅读理解中基于句子的自动问题生成,相比于之前的工作,该模型不依赖于手工规则或复杂的自然语言处理技术,并在人工和自动评估中都呈现出更加自然和困难的问题。
Apr, 2017