该研究提出了一种使用注意力机制直接从文本中选取答案的模型,特别适用于以文本中某个单词为答案的问题,并在多个数据集上取得了新的最优成绩。
Mar, 2016
本文通过在神经网络框架中密切模拟问题,引入句法信息来帮助编码问题,并将不同类型的问题和共享信息建模为适应性任务,并提出适应性模型,从而在 Stanford 问题回答数据集(SQuAD)上证明这些方法可帮助获得比竞争基准更好的结果。
Mar, 2017
本文通过定量和定性分析现有端到端神经模型在斯坦福问答数据集上的结果,旨在理解和比较其特性,以迈向实现在多个领域中的泛化能力。研究发现,预测错误反映了某些模型特定偏差,本文对此进行了进一步讨论。
Jun, 2018
本文提出一种生成式机器理解模型,用于同时学习根据文档提问和回答问题,采用序列到序列框架编码文档并生成问题,模型在 SQuAD 语料库上获得显著性能提升,实验证明,模型在同时学习两个任务方面受益。我们认为这种联合模型的新颖性提供了一个超越架构工程的机器理解视角,是实现自主信息寻找的第一步。
Jun, 2017
本文提出了一种基于递归神经网络的模型,可以根据答案生成自然语言问题,并介绍了一种使用监督学习和强化学习相结合的方式对模型进行训练,然后通过策略梯度技术微调模型以最大化几个衡量问题质量的奖励,其中一个奖励是一个问题回答系统的表现,并通过最近的问答数据集 SQuAD 对模型进行了训练和评估。
May, 2017
提出了一个基于匹配式 LSTM 和 Pointer Net 的神经网络结构,用于机器理解文本,能够在 Stanford Question Answering Dataset 数据集上对传统的逻辑回归与手工特征提取方法结果有显著的提升。
Aug, 2016
该研究探讨了答题所需的最小上下文,并提出了一种简单的句子选择器用于选择最小的句子来喂养问答模型,以实现训练和推理时间的显著减少并提高精度,并且更加鲁棒。
May, 2018
该论文提出了一种新颖的双向神经序列转换模型,能够同时学习阅读理解中的三种知识输入方式,即问题、答案和上下文,并通过分层注意力过程对不同形态之间的交互信息进行捕捉和建模。该模型在四个公开数据集上的表现优于其他同类神经网络模型,尤其在问题回答和生成双方面具有更广泛的应用前景。
Sep, 2018
该研究采用基于注意力机制的序列自学习模型进行阅读理解中基于句子的自动问题生成,相比于之前的工作,该模型不依赖于手工规则或复杂的自然语言处理技术,并在人工和自动评估中都呈现出更加自然和困难的问题。
Apr, 2017
本文研究深度学习模型,结合记忆组件或注意力机制进行问答任务。我们比较了三种模型:神经机器翻译、神经图灵机和记忆网络,用于一个模拟 QA 数据集。研究表明,注意力和记忆的组合有潜力解决某些 QA 问题。其中,本文是首个使用神经机器翻译和神经图灵机解决 QA 任务的研究。
Oct, 2015