高考历史挑战赛中的一次性问题回答学习
本文提出了一个名为 Neural Generative Question Answering(GENQA)的端到端神经网络模型,可以根据知识库中的事实生成简单问答问题的答案。通过对问题答案对的语料库进行训练,该模型可有效处理问题和答案的变化,并通过参考知识库中的事实生成正确自然的答案,且在问题回答方面的实验证明该模型优于基于嵌入式的 QA 模型和在相同数据上训练的神经对话模型。
Dec, 2015
本文介绍了一种使用循环和卷积模型(gated convolution)将问题映射到其语义表示的方法,以实现在问答论坛中寻找相似问题并重用之前提供的答案。我们的模型相对于标准 IR 基线和各种神经网络模型(包括 CNN,LSTM 和 GRU)表现出显著优势。
Dec, 2015
我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
本文提出了一个神经网络的方法,该方法应用核心指代知识来产生覆盖单句以外内容的维基百科相关问题 - 答案对,并通过对一百万个这些问题 - 答案对的定性分析表明了该系统的有效性。
May, 2018
本文研究深度学习模型,结合记忆组件或注意力机制进行问答任务。我们比较了三种模型:神经机器翻译、神经图灵机和记忆网络,用于一个模拟 QA 数据集。研究表明,注意力和记忆的组合有潜力解决某些 QA 问题。其中,本文是首个使用神经机器翻译和神经图灵机解决 QA 任务的研究。
Oct, 2015
该论文提出了一种新颖的双向神经序列转换模型,能够同时学习阅读理解中的三种知识输入方式,即问题、答案和上下文,并通过分层注意力过程对不同形态之间的交互信息进行捕捉和建模。该模型在四个公开数据集上的表现优于其他同类神经网络模型,尤其在问题回答和生成双方面具有更广泛的应用前景。
Sep, 2018
本文提出了一个名为 MixQG 的神经问题生成器,通过结合 9 个问题回答数据集来训练单一的生成模型,该模型在不同的认知水平中可以产生具有不同类型答案的问题,经实验证明在已知和未知领域中均表现出优越性。
Oct, 2021
本论文针对问题回答和问题生成两个任务之间内在联系,提出一个联合训练框架,使用序列到序列模型和循环神经网络模型,通过概率相关性指导训练过程来提高两个任务的性能,实验证明该框架能够显著提高问题回答和问题生成两个任务的表现。
Jun, 2017
使用多任务学习和强化学习的方法,通过支持事实的多次跳转生成相关问题,相比于单次跳转模型,我们的模型在 HotPotQA 数据集上表现更好(同时在自动评估指标如 BLEU、METEOR 和 ROUGE 以及人工评估指标中都有着更高的质量和覆盖率)。
Apr, 2020