自动生成多项选择题
使用 TP3 系统,通过预训练 Transformers 在 SQuAD 数据集上进行微调,进行自动提取合适的答案和生成高质量 QAPs,以 Gaokao-EN 数据集验证。
May, 2022
本文提出一种基于神经网络的两阶段机制来生成问题 - 答案对,第一阶段采用 Pointer Networks 编码句子中的关键答案,第二阶段采用序列到序列模型生成问题,最终采用全局注意力和答案编码生成最相关的问题。实验结果表明我们的方法在生成问题的质量上显著优于现有方法,是自动阅读理解评估的又一步。
Mar, 2018
本文提出一种多选题智能生成系统,利用预训练的语言模型,根据规定的性能指标,通过读取理解语料库来生成语法准确,具有可回答性、多样性和复杂性的问题及选项。
Sep, 2022
通过使用一种叫做 tag-set sequence learning 的新方法,TSS-Learner 模型可以从给定的陈述句中学习 tag-set sequence,在特定的文本中生成得到的问题和答案对,相比于 transformer-based 模型,其质量更高且更正常。
Oct, 2022
该研究采用基于注意力机制的序列自学习模型进行阅读理解中基于句子的自动问题生成,相比于之前的工作,该模型不依赖于手工规则或复杂的自然语言处理技术,并在人工和自动评估中都呈现出更加自然和困难的问题。
Apr, 2017
本论文提出了一种用于机器阅读理解的数据增广技术,通过自动生成相关无法回答的问题并将其与包含答案的段落相配对,提出了一个序列模型,该模型有效地捕捉了问题和段落之间的交互。实验结果表明,该模型相对于序列到序列基线模型表现更好,同时将自动生成的无法回答的问题作为数据增广的一种方法,可以大幅提高 SQuAD 2.0 数据集上的 F1 值。
Jun, 2019
通过集中于围绕问题上下文的改述,我们的工作提供了一种高数据获取成本情景下进行多项选择题生成的初始尝试,这是通过使用仅预训练模型构成的 pipeline AGenT Zero,该方法不需要 fine-tuning,最大限度地减少了问题生成的数据获取成本。同时,我们的评估流程还可推广到更广泛的问题和答案范围内。
Nov, 2020
研究提出了一种名为 ClinQG4QA 的框架,该框架借助问答生成来合成新的临床背景下的 QA 对,提高 QA 模型的性能,同时还引入了 seq2seq-based 问题短语预测模块来扩大生成的多样性。该方法在实验中表现出了显著的精度提升(最高达 8%),而 QPP 模块对此有着重要作用。
Oct, 2020
本文介绍了我们使用传统语言学方法和多种机器学习技术生成英语非结构化文本问句的框架,并且加入了问题评估模块,最终证明我们的生成问题质量优于其他最好的系统,并且与人类创建的问题相当。
May, 2022