基于哈希的答案选择
该研究提出 HyperQA,是基于超伸缩空间对问题和答案嵌入之间的关系建模的简单但新颖的深度学习体系结构,它不需要进行特征工程,相似性矩阵匹配,复杂的注意机制或过度参数的层,但在多个基准测试中表现优异并与许多具有这些功能的模型保持竞争力。
Jul, 2017
这篇论文提出了一个新的门控自注意力记忆网络方法,结合大规模在线语料库的简单迁移学习技术,在 TrecQA 和 WikiQA 两个标准答案选择数据集上取得了新的最先进结果。
Sep, 2019
本文探索了一种深度学习框架,用于解决答案选择问题,结合双向长短期记忆模型、卷积神经网络和注意力机制,结果表明该模型在 TREC-QA 和 InsuranceQA 数据集上优于已有模型。
Nov, 2015
通过分布式表征学习语义编码,我们提出了一种新方法,用于解决回答句子选择的任务,该方法不需要任何特征工程或专业语言数据,可轻松适用于各种领域和语言,并在 TREC 标准基准数据集上达到了与最先进的性能相当的结果。
Dec, 2014
本文提出了使用预训练模型的 Question-Answer 交叉注意网络(QAN)进行回答选择,并利用大型语言模型(LLM)来进行具有知识增强的回答选择。实验证明,QAN 模型在 SemEval2015 和 SemEval2017 数据集上实现了最新的性能。同时,LLM 利用外部知识进行问题和正确答案的知识增强,并通过不同方面对 LLM 的提示进行优化,结果表明外部知识的引入可以提高 LLM 在 SemEval2015 和 SemEval2017 数据集上的正确答案选择率,同时通过优化提示,LLM 也能在更多问题上选择正确的答案。
Nov, 2023
本文提出了一种新的概率形式化 OpenQA 方法,基于三层分层结构,即问题级别、段落级别和答案段水平,以及设计了适应于此的分层答案段模型(HAS-QA),能够解决传统 RC、OpenOA 和多个答案范围的起始 / 结束位置相关的问题,实验表明,其性能显著优于现有的 OpenQA 基线方法。
Jan, 2019
本文探讨了在大规模数据集上对 transformer 模型进行语言模型的预训练,并在 QA 和 CQA 数据集上微调 BERT 模型进行答案选择任务,在 QA 数据集中观察到了最大 13.1% 的提升,在 CQA 数据集中观察到了最大 18.7% 的提升。
Nov, 2020
本研究提出了一种基于注意力循环神经网络和相似度矩阵卷积神经网络(AR-SMCNN)模型的知识库问答方法,能够充分利用循环神经网络和卷积神经网络的优势,从而能够捕获全面的层级信息,同时使用了新的启发式扩展方法对实体检测进行了优化,在 SimpleQuestion 基准测试中表现出更高的准确性和效率。
Apr, 2018
本文通过提出一种基于序列到序列变换器模型的答案生成方法,从 AS2 候选中生成答案,并在三个英文 AS2 数据集上进行测试,结果显示本方法的准确率在现有技术水平上提高了 32 个绝对值的水平。
Jun, 2021