基于强化学习的图到序列模型的自然问句生成
本篇文章提出了基于强化学习 (Graph2Seq) 模型的问题生成方法,该模型利用双向门控图神经网络作为 encoder 嵌入文章,并混合应用交叉熵损失和 RL 损失来确保生成语法和语义合理的文本。此外,文章还介绍了一种有效的深度对齐网络,将答案信息融合到文章中。该模型的端到端训练在标准 SQuAD 基准测试中取得了明显的最优成绩,超过了现有方法。
Aug, 2019
本研究提出了一种基于 bidirectional Graph2Seq 模型和节点级别复制机制来生成知识图谱子图问题的方法,并在自动和人工评估中取得了最新的最好表现,并显示了该方法可以作为数据增强方法,从而持续有益于问答任务。
Apr, 2020
本文提出了一种基于递归神经网络的模型,可以根据答案生成自然语言问题,并介绍了一种使用监督学习和强化学习相结合的方式对模型进行训练,然后通过策略梯度技术微调模型以最大化几个衡量问题质量的奖励,其中一个奖励是一个问题回答系统的表现,并通过最近的问答数据集 SQuAD 对模型进行了训练和评估。
May, 2017
该研究采用基于注意力机制的序列自学习模型进行阅读理解中基于句子的自动问题生成,相比于之前的工作,该模型不依赖于手工规则或复杂的自然语言处理技术,并在人工和自动评估中都呈现出更加自然和困难的问题。
Apr, 2017
本文介绍了一种基于深度神经网络的答案分离序列到序列模型,该模型通过用特殊令牌替换原始段落中的目标答案来预测出应该使用哪个疑问词,并使用关键词网络模块来更好地捕捉目标答案中的关键信息,从而显著减少了包含答案的不恰当问题的数量,因此超越了之前最先进的神经问题生成模型。
Sep, 2018
我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
Question generation is a natural language generation task that can be achieved with a single Transformer-based unidirectional language model, which outperforms QG baselines and produces high-quality questions that are relevant to their context paragraph and easy to answer, utilizing transfer learning without relying on auxiliary data.
May, 2020
通过强化学习优化针对问题产生特定目标的奖励,如流畅性、相关性和可回答性,以提高生成问题的质量。优化问题特定的奖励通常会在自动评估指标中表现出更好的性能,但是,仅与人类判断相关的奖励(例如相关性)会在实际问题质量上带来真正的改善。只优化可回答性等其他问题会引入模型的错误偏见,导致质量差的问题。
Nov, 2020
本文提出了一个新的任务 —— 对话式问题生成(CQG),研究了如何使用增强动态推理(ReDR)网络来生成针对给定文本和对话历史的问题,使用 QA 模型提供反馈,经过与各种基线和模型变量的比较得出新方法的有效性,并将其应用于 SQuAD 的多轮问答对话中。
Jul, 2019