基于标签集序列学习生成问题 - 答案对
提出了使用深度学习方法和序列学习方法生成阅读理解中多项选择题的解题方法,包括问题生成和干扰项生成。通过多种自然语言处理技术的组合,这些方法可以在未见数据上表现良好。
Mar, 2023
本研究构建了一个基于印尼语的自动问题生成器,使用 BiGRU、BiLSTM 和 Transformer 结构,加入语言特征、复制机制和覆盖机制,使用 SQuAD v2.0 数据集并成功实现了自动化生成问题,表现出较好的性能。
Sep, 2020
本文通过提出一种基于序列到序列变换器模型的答案生成方法,从 AS2 候选中生成答案,并在三个英文 AS2 数据集上进行测试,结果显示本方法的准确率在现有技术水平上提高了 32 个绝对值的水平。
Jun, 2021
本文旨在建立三种不同的 QAG 方法的基线,利用序列到序列语言模型进行微调。实验证明,一种端到端的 QAG 模型,它在训练和推理时计算量都很轻,通常是稳健的,并且胜过其他复杂的方法。然而,这取决于底层生成模型的不同。最后,我们的分析表明,仅基于生成的问答对微调的 QA 模型可以与人类标注数据上训练的监督 QA 模型具有竞争力。
May, 2023
该论文研究了使用问答的方式表示语义关系,并从三个任务的角度分析了如何最好地利用 seq2seq 预训练语言模型的威力。最终提出了一个综合文本信息的模型,并发布了具有实用性的 QASem 分析工具。
May, 2022
使用 TP3 系统,通过预训练 Transformers 在 SQuAD 数据集上进行微调,进行自动提取合适的答案和生成高质量 QAPs,以 Gaokao-EN 数据集验证。
May, 2022
该研究采用基于注意力机制的序列自学习模型进行阅读理解中基于句子的自动问题生成,相比于之前的工作,该模型不依赖于手工规则或复杂的自然语言处理技术,并在人工和自动评估中都呈现出更加自然和困难的问题。
Apr, 2017
本文提出一种基于神经网络的两阶段机制来生成问题 - 答案对,第一阶段采用 Pointer Networks 编码句子中的关键答案,第二阶段采用序列到序列模型生成问题,最终采用全局注意力和答案编码生成最相关的问题。实验结果表明我们的方法在生成问题的质量上显著优于现有方法,是自动阅读理解评估的又一步。
Mar, 2018
本文提出一种生成式机器理解模型,用于同时学习根据文档提问和回答问题,采用序列到序列框架编码文档并生成问题,模型在 SQuAD 语料库上获得显著性能提升,实验证明,模型在同时学习两个任务方面受益。我们认为这种联合模型的新颖性提供了一个超越架构工程的机器理解视角,是实现自主信息寻找的第一步。
Jun, 2017
本论文介绍了一种基于序列标记的简单,高效的文本简化系统 (TST), 使用预训练的 Transformer-based 编码器,在现有系统的训练和推断中进行简单的数据增强和调整,使其不太依赖于大量的平行训练数据,提供了更多对输出的控制并实现了更快的推断速度,目前取得了基准测试数据集任务的几乎最新性能。
Mar, 2021