基于知识兼容性匹配的 COMBO 框架能够有效地利用两种信息源,改善开放领域的问答性能,并在四项测试问答基准中有三个的竞争对手表现更好,特别在存在较高程度知识冲突的场景中表现出更大的功效。
Oct, 2023
通过筛选句子,可以提高模型准确率并优化 NLP 任务中的问答体系结构。
研究了语音接口与问答系统交互过程中的问题,使用数据增强技术来探究自然语音识别噪音对信息检索的影响。结果表明,自然语音识别噪音会对信息检索产生负面影响,提出使用数据增强来解决这个问题。
Sep, 2022
本研究提出了一种基于知识库和相关文章文本联合的开放领域问答方法,通过检索和阅读一个包含文本段的图表结构,并采用跨相关段落传播信息的方式更新文本段落表示,从而在 WebQuestions、自然问题和 TriviaQA 三个任务的数据集上实现了 2-11% 的性能提升。
Nov, 2019
大规模语言模型 (LLMs) 在解决知识密集型任务方面展示出了令人印象深刻的能力。本研究通过分析 LLMs 的事实知识边界以及检索增强对其开放领域问题回答能力的影响,揭示了 LLMs 在自信度、准确度和判断能力方面的特征。研究发现检索增强是提升 LLMs 对知识边界感知的有效方法,并且 LLMs 在生成答案时倾向于依赖检索结果,但结果质量对其依赖程度有显著影响。
Jul, 2023
通过使用独立验证器处理语言模型的输出和知识,本研究提出了一种验证方法,以解决语言模型在生成文本时可能存在的错误。结果表明,该验证器可以有效地识别检索和生成错误,使语言模型能够提供更准确的结果。
提出了一种称为问题和路径增强的简单而有效的方法,通过对原始问题进行多步子问题的扩充和规划,从而提升检索性能,以及通过语言模型生成的自我生成路径来指导答案抽取,实验证明该方案优于现有技术且在现有的检索 - 生成模型中实现了显著的性能提升。
Jun, 2024
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
本文提出了一种以问答对为基础的编码 - 解码模型,通过该模型的预训练策略,能够在单跳及多跳问题上达到强大性能,并进一步提高了对模型的解释和控制能力,缩小了与段落检索系统之间的性能差距。
Apr, 2022
我们提出了一个采用粗到细方法提取相关知识和回答问题的两阶段闭书问题回答框架,实验结果显示我们的方法明显优于先前的闭书 QA 方法并与利用外部知识源的开书方法相当。
Oct, 2022