基于注意力自编码器的无监督问题检索模型
本文介绍了一种使用循环和卷积模型(gated convolution)将问题映射到其语义表示的方法,以实现在问答论坛中寻找相似问题并重用之前提供的答案。我们的模型相对于标准 IR 基线和各种神经网络模型(包括 CNN,LSTM 和 GRU)表现出显著优势。
Dec, 2015
本文提出了基于注意力机制的神经匹配模型,采用基于价值共享的加权方案,结合问题关键词重要性学习,使用 popular benchmark TREC QA 数据集验证其在短答案文本排名方面的性能优越性。
Jan, 2018
本文提出了使用预训练模型的 Question-Answer 交叉注意网络(QAN)进行回答选择,并利用大型语言模型(LLM)来进行具有知识增强的回答选择。实验证明,QAN 模型在 SemEval2015 和 SemEval2017 数据集上实现了最新的性能。同时,LLM 利用外部知识进行问题和正确答案的知识增强,并通过不同方面对 LLM 的提示进行优化,结果表明外部知识的引入可以提高 LLM 在 SemEval2015 和 SemEval2017 数据集上的正确答案选择率,同时通过优化提示,LLM 也能在更多问题上选择正确的答案。
Nov, 2023
本文提出了一个多任务句子编码模型 (MSEM) 用于 Paraphrase Identification(PI)问题。我们使用连接图表示句子之间的关系,并应用多任务学习模型来解决句子匹配和意图分类问题。此外,我们实现了一个通用的语义检索框架,结合了我们提出的模型和近似最近邻(ANN)技术,可以在在线服务中快速地找到最相似的问题。实验结果表明,我们提出的方法与现有的句子匹配模型相比具有优越性。
Nov, 2019
本文提出了一种新颖的基于语义的问题回答方法 (SEQA),该方法使用生成模型先产生一组可能的答案,然后基于这些可能的答案和问题在语义上的相似性来选择正确的答案。该方法在无监督的情况下,通过对四个基准数据集的实验验证了其有效性和健壮性,并取得了最佳结果。
May, 2021
本研究提出了一种基于注意力循环神经网络和相似度矩阵卷积神经网络(AR-SMCNN)模型的知识库问答方法,能够充分利用循环神经网络和卷积神经网络的优势,从而能够捕获全面的层级信息,同时使用了新的启发式扩展方法对实体检测进行了优化,在 SimpleQuestion 基准测试中表现出更高的准确性和效率。
Apr, 2018
本文提出了一种新型的双向注意力记忆网络(BAMnet),通过直接建模问题和知识库之间的交互作用来回答自然语言问题,并使用注意机制使解释性比其他基准线更好,在 WebQuestions 基准测试中,我们的方法明显优于现有的基于信息检索的方法,并且在(手工制作的)语义解析方法基础上依然具有竞争力。
Mar, 2019
本文提出了一种以问答对为基础的编码 - 解码模型,通过该模型的预训练策略,能够在单跳及多跳问题上达到强大性能,并进一步提高了对模型的解释和控制能力,缩小了与段落检索系统之间的性能差距。
Apr, 2022