基于层次结构的图注意力多跳问答
本文介绍了一种基于分层图网络的多跳问答模型,通过构建不同粒度层次的节点来聚合多个段落中分散的线索,使用预先训练的上下文编码器对节点进行初始化,通过图传播等方式更新节点表示并实现多跳推理,实验结果表明,该方法在 HotpotQA 基准测试中取得了新的最高水平,优于现有的多跳问答方法。
Nov, 2019
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022
本研究提出了一种 QA4QG 方法,通过加入多次问答(QA)模块来限制生成问题。实验结果显示,QA4QG 在 HotpotQA 数据集上优于所有先前报告的最佳结果。
Feb, 2022
本文提出了文档图网络(DGN),一种用于识别文本的支持事实的消息传递架构,该架构基于图形式表达的文本结构表示。在 HotpotQA 的评估中,DGN 在多跳推理任务中获得了与基于阅读理解的基线模型相当的结果,证实了结构化表示对于支持多跳推理的相关性。
Oct, 2019
使用多任务学习和强化学习的方法,通过支持事实的多次跳转生成相关问题,相比于单次跳转模型,我们的模型在 HotPotQA 数据集上表现更好(同时在自动评估指标如 BLEU、METEOR 和 ROUGE 以及人工评估指标中都有着更高的质量和覆盖率)。
Apr, 2020
本研究探讨了是否有必要使用图结构和引入图神经网络来实现多跳问答。结果表明,通过合理使用预训练模型,多跳问答并不需要图结构,使用自注意力或 Transformers 可以替代图 - 注意力或整个图结构。
Apr, 2020
本文提出了一种新颖的分层注意力网络,用于阅读理解式问题回答,在问题和段落之间的不同粒度层次上水平和垂直进行注意力和融合。通过具有精细语言嵌入的问题和段落的编码,引入多粒度融合方法来全面融合来自全局和受关注表示的信息。最后,引入分层注意力网络,通过多级软对齐逐步聚焦于答案跨度。广泛的实验在大规模 SQuAD 和 TriviaQA 数据集上验证了所提出方法的有效性,同时在 TriviatQA、AddSent 和 AddOne-Sent 数据集上达到了最先进的结果。
Nov, 2018
我们提出了一种多跳编码融合网络(MulQG)来解决多跳问题生成中的挑战,该方法使用图卷积网络进行多次上下文编码,并通过编码门实现编码融合,没有使用任何句级别信息,实验结果表明我们的模型在自动指标和人类评估中都有较好的表现。
Oct, 2020
本研究提出了一个包含超过 120k 个人工标注问题的大规模组合式问答数据集,回答在此数据集上的问题需要组合文档中的若干段落来生成最终答案。本文针对该问题提出了一种基于图神经网络的层次预训练模型,并在预训练和机器阅读理解领域中取得了巨大的提升。
Jan, 2021
本文提出了一种基于 AQG(一种统一的图形文法)的端到端模型,由高级解码生成用于约束搜索空间的 AQG 和底级解码构造查询图,旨在优化查询图构建过程,提高在复杂 KGQA 基准测试中的表现。
Nov, 2021