本研究提出了一种基于神经模型和图卷积网络的阅读理解方法,可以跨多个文档进行多步推理和信息推理,并在WikiHop数据集上实现了最先进的结果。
Aug, 2018
针对视觉问答中存在的通用知识推理难题,提出一种基于事实的视觉问答任务,并探索了利用实体图和图卷积网络联合推理来解决问题,相对于现有算法在准确率上有显著提高。
Nov, 2018
本文介绍了一种基于分层图网络的多跳问答模型,通过构建不同粒度层次的节点来聚合多个段落中分散的线索,使用预先训练的上下文编码器对节点进行初始化,通过图传播等方式更新节点表示并实现多跳推理,实验结果表明,该方法在HotpotQA基准测试中取得了新的最高水平,优于现有的多跳问答方法。
Nov, 2019
本论文提出了一种新颖的知识感知方法,将预训练语言模型与多跳关系推理模块相结合,对外部知识图谱子图进行多跳关系推理。该方法统一了基于路径的推理方法和图神经网络,提高了可解释性和可伸缩性,并在常识问答和开放式书面问答数据集上证明了其有效性和可伸缩性,并通过案例研究进行了解释。
May, 2020
我们提出了一种多跳编码融合网络(MulQG)来解决多跳问题生成中的挑战,该方法使用图卷积网络进行多次上下文编码,并通过编码门实现编码融合,没有使用任何句级别信息,实验结果表明我们的模型在自动指标和人类评估中都有较好的表现。
Oct, 2020
文章提出了一种名为TransferNet的有效且透明的多跳问答模型,支持在统一框架下使用标签和文本关系,并通过实验表明在MetaQA上可以标记得到2跳和3跳问题的100%准确性。
Apr, 2021
本研究提出了QAGCN——一种简单而有效的使用注意力图卷积网络的多步推理问题答案推导模型,避免了传统复杂推理机制的不稳定性和低至。经过广泛的实验,我们证明了QAGCN在几个具有挑战性的数据集上与当前最先进的基于深度强化学习的方法相比非常有竞争力,提高了效率并保持了高的解释性。
Jun, 2022
本文旨在探索多站点问答任务的RGCN模型、图形关系和节点嵌入,并在WikiHop数据集上经验性地探讨每个关系、节点类型和嵌入对多站点QA性能的影响。
Oct, 2022
本研究针对HotpotQA基准数据集,提出了两种扩展方式来改进基于GNN的HGN模型,包括在节点之间引入新的边缘,以及在图传播步骤中,扩展了一种名为GATH的嵌套图注意力机制,并且实验证明了这些改变能够有效提升模型的效率和能力。
Jan, 2023
通过引入显式的知识图谱可以改善问答系统,本研究提出了一种基于实体节点定位、剪枝和推理的流程以提高图推理的效率,并采用图注意力网络进行子图数据的推理。在CommonsenseQA和OpenBookQA上的实验结果证明了方法的有效性。
Jan, 2024