- 重新思考多跳问答中的标签平滑
本论文系统分析了标签平滑法在多跳问题回答中的作用,并提出了一种专门为机器阅读理解任务设计的新型标签平滑技术 F1 smoothing,在 HotpotQA 数据集上取得了比复杂注意力机制模型等强基线模型更好的效果,结果表明标签平滑法在多跳问 - ICLRUniKGQA:基于知识图谱的多跳问答统一检索与推理
UniKGQA 是一种新的多跳知识图谱问答方法,通过统一检索和推理模型架构和参数学习,基于预训练语言模型的语义匹配模块和匹配信息传播模块进行问题与关系的语义匹配,采用共同的预训练任务和检索以及推理定向的微调策略。
- COLING基于提示的多跳问题回答的保护性学习
本文提出了 Prompt-based Conservation Learning (PCL) 框架,提供支持证据不足以证明模型已完成所需推理以获得正确答案。通过在单跳 QA 任务上训练模型并为多跳 QA 任务分配额外的子网络,PCL 获得了 - IJCAI基於可解釋的 AMR 問題分解的多跳問答
本文提出了一种基于抽象意义表征的问题分解方法,通过将多跳问题分解成简单的子问题并按顺序回答它们,实现了可解释的推理过程。实验结果表明,这种方法在可解释的推理方面具有竞争力,并且由 QDAMR 生成的子问题形式良好,优于现有的基于问题分解的多 - 从简单到困难:用于多跳问答的两阶段选择器和阅读器
本研究提出了一种名为 FE2H 的简单而有效的多跳问答(QA)框架,其采用迭代式文档选择和渐进式学习策略,分阶段进行文档选择和阅读,并在单跳 QA 数据集中训练 QA 读取器,成功应用于 HotpotQA 数据集,并在百分之六十七点一的准确 - EMNLP利用分解探针校准多跳问答系统的信任度
本论文探讨了利用多跳问题分解来探究神经问答模型的解释性,通过人类实验证明这种方法可以提高用户预测系统在某个问题实例上的性能,并且可以用来改进问答系统。
- 询问以理解:多跳问答问题生成
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 - 多跳问答的语义句子组合推理
针对多跳领域问题,通过多段语义匹配模块(MSSM)和事实句子构成模块(FSC)的结合,提出了一种语义句子组成推理方法,其能提供更全面的上下文信息,实验结果表明该模型能结合现有的预训练语言模型,在 QASC 任务上的表现优于现有的 SOTA - AAAI通过示例教人何时听从分类器
研究了人工智能与人类合作决策的有效性,提出基于样例的教学策略,利用近邻规则和代理的强弱进行教学,有效提高任务表现。
- ACL通过伪证据训练来增强多跳问答的鲁棒性
本文研究了多跳问答模型中的偏差问题,提出了一种不需要额外昂贵的注释即可学习证据性的新方法,在 HotpotQA 验证了该方法准确,鲁棒性强。
- EMNLPTransferNet: 基于关系图的多跳问答的有效且透明的框架
文章提出了一种名为 TransferNet 的有效且透明的多跳问答模型,支持在统一框架下使用标签和文本关系,并通过实验表明在 MetaQA 上可以标记得到 2 跳和 3 跳问题的 100% 准确性。
- 面向多跳问题回答的粗粒度分解与细粒度交互
本文提出了一种新的多跳问题回答模型架构,通过应用 CGDe 和 FGIn 两种策略,在 SQuAD 和 HotpotQA 数据集上表现出超越 state-of-the-art 基线的性能。
- COLING构建用于全面评估推理步骤的多跳问答数据集
本研究创建了一个名为 2WikiMultiHopQA 的新的多跳问题回答数据集,使用结构化和非结构化数据生成问题 - 答案对,并提供包含推理路径的证据信息以提供预测的全面解释并评估模型推理技能。通过实验,我们证明了我们的数据集对于多跳模型来 - ACL无监督多跳问答通过问题生成
本论文提出了 MQA-QG 框架,利用同质和异质数据源生成类人问答对数据,从而实现集成式自监督多跳 QA 模型训练,实验结果表明仅利用生成的数据即可训练出在 HybridQA 和 HotpotQA 数据集上分别达到监督学习性能 61% 和 - EMNLPSRLGRN:语义角色标注图推理网络
本文提出了一种基于句子语义结构的图推理网络,用于多步问题回答,其在 HotpotQA 分散器设置基准测试中表现出与最新的最先进模型竞争的性能,可以学习跨段理推路径,找到支持事实和答案。
- HotpotQA 的简单而强大的流程
使用 BERT、命名实体识别、基于图的推理和问题分解等技术改进的最新多跳问题回答模型,设计复杂度高,但我们提出的名为 Quark 的简单模型表现出乎意料的优异,特别是在 HotpotQA 上,胜过了这些模型,并取得了非常接近 RoBERTa - EMNLP多跳问题回答需要图结构吗?
本研究探讨了是否有必要使用图结构和引入图神经网络来实现多跳问答。结果表明,通过合理使用预训练模型,多跳问答并不需要图结构,使用自注意力或 Transformers 可以替代图 - 注意力或整个图结构。
- 多跳问答系统是否知道如何回答单跳子问题?
本文研究了多跳问题回答的模型,调研表明多个现有的多跳 QA 模型无法准确回答子问题,说明其只是通过一些简单的线索来回答问题,而非真正理解推理路径,同时,本文提出的神经解析模型能显著提高子问题的回答性能,推动了向可解释的多跳 QA 系统的建设 - EMNLP快速且不怎么精准的:无监督选择多跳问题回答的证明句子
我们提出了一种无监督的句子选择策略,可与任何有监督的 QA 方法配对使用,此方法在两个多跳 QA 数据集上均取得了不使用外部资源训练 QA 系统的新的最先进性能,并证明我们的句子选择方法比强大的信息检索基线选择的证明更具质量,更稳定跨域。
- EMNLP用于多跳问答的层次图网络
本文介绍了一种基于分层图网络的多跳问答模型,通过构建不同粒度层次的节点来聚合多个段落中分散的线索,使用预先训练的上下文编码器对节点进行初始化,通过图传播等方式更新节点表示并实现多跳推理,实验结果表明,该方法在 HotpotQA 基准测试中取