我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
本文提出一种生成式机器理解模型,用于同时学习根据文档提问和回答问题,采用序列到序列框架编码文档并生成问题,模型在 SQuAD 语料库上获得显著性能提升,实验证明,模型在同时学习两个任务方面受益。我们认为这种联合模型的新颖性提供了一个超越架构工程的机器理解视角,是实现自主信息寻找的第一步。
Jun, 2017
本文旨在建立三种不同的 QAG 方法的基线,利用序列到序列语言模型进行微调。实验证明,一种端到端的 QAG 模型,它在训练和推理时计算量都很轻,通常是稳健的,并且胜过其他复杂的方法。然而,这取决于底层生成模型的不同。最后,我们的分析表明,仅基于生成的问答对微调的 QA 模型可以与人类标注数据上训练的监督 QA 模型具有竞争力。
May, 2023
本文提出了 “连续问题生成” 任务,使用动态多任务框架生成逻辑相关的问题 - 答案对,全面考虑准确性、覆盖范围和信息量,并使用求精法(reranking)提高提问质量,提升 NLP 相关任务的效果。
Nov, 2022
使用多任务学习和强化学习的方法,通过支持事实的多次跳转生成相关问题,相比于单次跳转模型,我们的模型在 HotPotQA 数据集上表现更好(同时在自动评估指标如 BLEU、METEOR 和 ROUGE 以及人工评估指标中都有着更高的质量和覆盖率)。
Apr, 2020
本文提出一种基于无监督学习的问句生成方法,使用自由可得的新闻标题数据通过句法分析、命名实体识别和语义角色标注启发式技术转换成合适的问题,然后与原始新闻文章一起训练一个端到端的神经问句生成模型;通过在多项数据集上的实验证明,该方法生成的人工智能数据集用于训练问答模型,其性能远超过基于无监督学习的问答模型的现有成果。
Sep, 2021
研究了如何使用在次语言上的问题生成数据集来学习主要语言的问题生成模型,提出了一种跨语言问题生成模型的联合训练方法,使用 Hindi 和中文两种主要语言的数据集进行实验,获得了理想的效果,并创建并发布了一个新的 Hindi 问答数据集。
Jun, 2019
提出了 Invertible Question Answering Network (iQAN) 框架,该框架通过对 VQA 和 VQG 任务同时训练,利用图像中的问题和答案之间的互补关系,使用对应的参数共享方案和正则项来明确 Q,A 之间的依赖关系,并且明确地指导训练过程。通过在 CLEVR 和 VQA2 数据集上的评估,我们的 iQAN 在基线上提高了 VQA 的准确性,并表明 iQAN 的双学习框架可以推广到其他 VQA 体系结构,并持续改进结果。
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022
本研究提出了一种基于语义加强的奖励机制和基于 QA 的评估方法,用于解决问题生成中的语义漂移问题,并解决传统评价指标不足的问题,同时提出了两种合成 QA 对的方法,有效的用于半监督 QA 学习中。
Sep, 2019