- MoreHopQA: 超越多跳推理
将现有的多跳数据集从抽取性答案转变为生成性答案,通过添加常识、算术和符号推理等问题层次,我们创建了一个新的多跳数据集 MoreHopQA,以评估五个大型语言模型,并发现相较于以往的数据集,我们的数据集更具挑战性,其中部分问题分解的分析表明虽 - keqing:基于知识的问答是 LLM 的自然思维导师
本研究介绍了一种用于辅助大型语言模型检索相关结构化信息的新框架,该框架通过信息检索模块和生成基于检索到的知识的响应实现,以提高大型语言模型在知识范围之外的问题上的处理能力。实验结果表明,该框架实现了对复杂问题答案的逐步查找,并生成了推理路径 - 复杂问答中的问题分解中基于背景的能力转移
通过选择相关任务的可用数据源,将复杂问题分解为简单问题或生成逐步推理的依据,并为选择示例提出自动的不确定性感知的范例选择方法,ICAT 在不涉及任何模型训练的情况下表现出优于现有基于提示的解决方案的性能,展示了重复使用现有能力的好处。
- EMNLP文本到 SQL 解析中的问题和 SQL 的语义分解
利用模块化查询计划语言(QPL)将 SQL 查询分解为简单和规则的子查询,通过训练文本到 QPL 解析器,我们获得了对数据库模式敏感的数据检索问题分解器以及更易理解的语义解析器的输出。
- AAAI知识库复杂问题解答的问题分解树
本文提出了问题分解树(QDT)来表示复杂问题的结构,同时设计了一个名为 Clue-Decipher 的两阶段方法生成 QDT。针对知识库问答,我们设计了一个分解型问答系统 QDTQA。实验证明,QDTQA 在 ComplexWebQuest - 使用潜在答案进行链式问题训练以实现强韧性的多步问题回答
本文提出了一种链式问题框架,使用人工注释的问题分解含义表示训练模型生成和回答子问题,并且采用动态混合的 Hard-EM 和 MAPO 优化隐变量的子答案,相比于神经符号方法表现大幅度提升。
- 分解复杂问题的连续提示
我们引入了 “连续提示”,通过将一个复杂的任务迭代地分解成简单任务并逐步解决,使得我们在限制监督的情况下,可以利用大型语言模型来回答需要做出潜在决策的复杂问题,并且在问题的分解和回答方面进行分别学习。
- 通过问题分解实现复杂阅读理解
提出了一种通过可训练的问题分解器将多跳阅读理解问题分解为多个子问题,再利用序列到序列的阅读理解模型预测答案的学习方法,能够使语言模型更好地理解复杂的、组合性的多跳问题,并在 DROP 数据集的一难子集上比基线模型分别提高了 7.2 / 6. - IJCAI基於可解釋的 AMR 問題分解的多跳問答
本文提出了一种基于抽象意义表征的问题分解方法,通过将多跳问题分解成简单的子问题并按顺序回答它们,实现了可解释的推理过程。实验结果表明,这种方法在可解释的推理方面具有竞争力,并且由 QDAMR 生成的子问题形式良好,优于现有的基于问题分解的多 - EMNLP一个问题分解单元就足够了吗?
研究者们探讨了一种新的方法通过人在内的 NLP 研究,在不建立新模型的情况下,通过将数据分解为模型更易于回答的一系列简单问题来提高模型性能,证明了这种方法的可行性,可以作为建立大型语言模型的替代方案。
- CVPR衡量视频问答的组成一致性
本文开发了一个问题分解引擎,能将组合问题分解为子问题的有向无环图。使用问题图,我们评估了三个最先进的模型,并使用一组新的组成一致性指标。 我们发现,这些模型无法正确地通过大多数构图进行推理,或者依赖于错误推理来获得答案,并在中间的推理步骤失 - 询问以理解:多跳问答问题生成
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 - ACL通过问题分解和重评分的多跳阅读理解
该研究通过将复杂问题分解为多个单一问题并利用单一问题回答模型回答得出答案,提出了一种多跳阅读理解系统,并提出了一种新的全局重新打分方法,大大提升了系统准确度。
- ACL以 Web 为知识库回答复杂问题
本文提出一种新的框架,用于回答复杂问题,即将复杂问题分解成一系列简单问题,并从这些答案中计算出最终答案。实证结果表明,问题分解将在新数据集上将性能从 20.8 提高到 27.5。