METGEN: 面向答案解释的基于模块的蕴含树生成框架
通过提出可解释问答的生成性问题分解方法(GenDec),本文试图通过生成独立完整的子问题来增强大型语言模型在多跳问题答案推理能力,并通过结合 GenDec 与小规模 QA 系统以及 GPT-4 等最先进的 LLM,进行基于 HotpotQA、2WikihopMultiHopQA、MuSiQue 和 PokeMQA 数据集的两个实验来展示 GenDec 的影响、泛化性和鲁棒性。
Feb, 2024
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022
本文提出了一个名为 Neural Generative Question Answering(GENQA)的端到端神经网络模型,可以根据知识库中的事实生成简单问答问题的答案。通过对问题答案对的语料库进行训练,该模型可有效处理问题和答案的变化,并通过参考知识库中的事实生成正确自然的答案,且在问题回答方面的实验证明该模型优于基于嵌入式的 QA 模型和在相同数据上训练的神经对话模型。
Dec, 2015
本研究提出了一种 QA4QG 方法,通过加入多次问答(QA)模块来限制生成问题。实验结果显示,QA4QG 在 HotpotQA 数据集上优于所有先前报告的最佳结果。
Feb, 2022
多跳问题回答 (MHQA) 任务对于大型语言模型 (LLMs) 来说是一项重大挑战。我们提出了一个新颖的生成然后固定 (GenGround) 框架,结合 LLMs 的参数化知识和外部文档,以解决多跳问题。通过在检索的文档中确认问题 - 答案对,我们的方法在四个数据集上展示了其优越性。
Jun, 2024
提出一种新颖的生成式时间知识图问答框架(GenTKGQA),通过两个阶段引导 LLMs 回答时间性问题:子图检索和答案生成。在第一个阶段,利用 LLM 的内在知识来挖掘问题中的时间约束和结构链接,从而缩小子图搜索空间。在第二个阶段,设计虚拟知识指示器将子图的图神经网络信号与 LLM 的文本表示非浅层次地融合,帮助开源 LLM 深入理解检索到的事实中的时间顺序和结构依赖关系。实验结果表明,该模型优于最先进的基准方法,甚至对于简单问题类型的指标达到 100%。
Feb, 2024
本研究旨在解决在知识图谱子图上生成自然语言问题时,信息量不足和语义漂移的问题,提出了一种名为 KTG 的知识增强的、类型约束和语法引导的 KBQG 模型,并设计了一种奖励函数来提高生成的丰富性和句法正确性,实验证明该模型在两个广泛使用的基准数据集 SimpleQuestion 和 PathQuestion 上优于现有方法。
Oct, 2020
提出了一个基于多层次内容规划的新型问句生成框架 MultiFactor,通过同时选择关键短语和生成完整答案进行问句生成,引入了完整答案生成来连接短答案和选定的关键短语,从而形成帮助问句生成的答案感知摘要。代码可在此链接中获取。
Oct, 2023
Question generation is a natural language generation task that can be achieved with a single Transformer-based unidirectional language model, which outperforms QG baselines and produces high-quality questions that are relevant to their context paragraph and easy to answer, utilizing transfer learning without relying on auxiliary data.
May, 2020