非事实问题的结论补充回答生成
本文提出了一个名为 Neural Generative Question Answering(GENQA)的端到端神经网络模型,可以根据知识库中的事实生成简单问答问题的答案。通过对问题答案对的语料库进行训练,该模型可有效处理问题和答案的变化,并通过参考知识库中的事实生成正确自然的答案,且在问题回答方面的实验证明该模型优于基于嵌入式的 QA 模型和在相同数据上训练的神经对话模型。
Dec, 2015
本文提出了一种基于无监督问答的事实检查方法,通过使用 Bert 对 FEVER 数据集进行 Cloze 任务转换,以预测答案标记,并计算基于正确回答的问题和阈值的标签。该方法在转换后的数据集上在开发集和测试集上分别实现了 80.2%和 80.25%的标签准确率。
Oct, 2019
本文提出一种新颖的端到端问题聚焦的多因素注意网络,用于回答提问文本中的问题,通过张量变换实现多因素关注编码,以对散布在多个句子中的信息进行建模,并采用最大化注意聚合机制来对提问文本进行编码,从而实现对问题类型的隐式推断,并在三个大型挑战性问题回答数据集中实现了显著的性能提升。
Jan, 2018
本文探索了一种深度学习框架,用于解决答案选择问题,结合双向长短期记忆模型、卷积神经网络和注意力机制,结果表明该模型在 TREC-QA 和 InsuranceQA 数据集上优于已有模型。
Nov, 2015
本篇论文提出了一种新的 Attentional Encoder-Decoder Recurrent Neural Network 模型用于自动生成问题,该模型融合语言特征和句子嵌入来捕捉句子和单词层面上的意义,并采用复制机制和特殊答案信号生成多样化的问题,在基准问题生成数据集上取得了 19.98 的 Bleu_4 结果,超过了以前发表的所有结果,并且人类评估显示这些新增的功能提高了生成的问题的质量。
Sep, 2018
该研究开发了一种基于上下文依赖词级别注重和问题引导的句子级别注意力的新型模型,以更准确地理解文本,加强上下文建模,可以在交互式问答场景中处理不完整或模糊信息,大大提升了传统 QA 模型的表现。
Dec, 2016
本文提出了一个能够改进问题生成中的关键词生成和全局问题语义缺失问题的神经问题生成模型,并且利用了句子级别的语义匹配和答案位置推断功能,并运用了基于答案感知的门控融合机制来增强解码器的初始状态,结果表明我们的模型在 SQuAD 和 MARCO 数据集上领先于现有的最先进模型,同时还对现有模型进行了显著改进。
Dec, 2019
通过将多个样本与先前的选择相结合,基于简单的令牌重叠评分,我们将 “Sample & Select” 方法与其他几种解码算法进行比较,证明其在基于 NLI 的 CNN/DM 和 XSum 子集的 FRANK 基准测试中,相对于其他解码算法(DoLA、P-CRR 和 S-CRR)提高了 30% 的事实性,而对参考摘要维持可比的 ROUGE-1 F1 得分,并通过对生成摘要的人工验证进一步证实了我们方法的事实优越性。
Mar, 2024
通过引入能够对文本段进行推理的组件、以概率性和可微分的方式执行数字和日期等符号推理的组件,提出了一种改进的神经模块网络(NMNs)模型,提高了非合成问题的预测效果,实验结果表明,该模型在 DROP 数据集上取得了显著的性能提升。
Dec, 2019
通过分布式表征学习语义编码,我们提出了一种新方法,用于解决回答句子选择的任务,该方法不需要任何特征工程或专业语言数据,可轻松适用于各种领域和语言,并在 TREC 标准基准数据集上达到了与最先进的性能相当的结果。
Dec, 2014