通过动态多任务学习实现连续问题生成
本文提出了一个新的任务 —— 对话式问题生成(CQG),研究了如何使用增强动态推理(ReDR)网络来生成针对给定文本和对话历史的问题,使用 QA 模型提供反馈,经过与各种基线和模型变量的比较得出新方法的有效性,并将其应用于 SQuAD 的多轮问答对话中。
Jul, 2019
使用多任务学习和强化学习的方法,通过支持事实的多次跳转生成相关问题,相比于单次跳转模型,我们的模型在 HotPotQA 数据集上表现更好(同时在自动评估指标如 BLEU、METEOR 和 ROUGE 以及人工评估指标中都有着更高的质量和覆盖率)。
Apr, 2020
本论文针对问题回答和问题生成两个任务之间内在联系,提出一个联合训练框架,使用序列到序列模型和循环神经网络模型,通过概率相关性指导训练过程来提高两个任务的性能,实验证明该框架能够显著提高问题回答和问题生成两个任务的表现。
Jun, 2017
SG-CQG 是一个用于回答无答案设置下如何生成与要求自然的对话的方法,它通过语义图和具有明确控制信号的分类器来解决 what-to-ask 和 how-to-ask 的挑战。同时,提出了新的评估指标 Conv-Distinct,并在实验中取得了最先进的表现。
May, 2023
本文提出一种基于无监督学习的问句生成方法,使用自由可得的新闻标题数据通过句法分析、命名实体识别和语义角色标注启发式技术转换成合适的问题,然后与原始新闻文章一起训练一个端到端的神经问句生成模型;通过在多项数据集上的实验证明,该方法生成的人工智能数据集用于训练问答模型,其性能远超过基于无监督学习的问答模型的现有成果。
Sep, 2021
提出了一种名为 Unified-QG 的模型,它基于终身学习技术,可以跨不同数据集和格式不断地学习 QG 任务,并用 STRIDER 方法来减轻连续 QG 学习中的灾难性遗忘,实验证明 Unified-QG 可以有效地适应 QG 任务,提高 QA 系统性能。
Jan, 2022
通过提出一种选择基于概念网络的常识信息和一种选择性门控的多头注意力机制,本文提出了一种生成式模型,用于解决阅读理解 QA 任务中的多跳关系抽取问题,并在 NarrativeQA 数据集上创造新的最先进结果。
Sep, 2018
本文提出了一种新的封闭式问答模型,旨在通过对比学习和答案重构模块更好地理解长形式摘要回答的语义并在其参数中存储更多信息,通过实验验证了该模型在公共数据集和新的 WikiCQA 数据集上的有效性,并展示了如何利用该模型改进现有的问答系统。
Oct, 2022
我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022