关系感知语言 - 图变换器用于问答
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
提出了一种基于 T5 模型的知识图谱问答系统 GETT-QA, 它能够自然语言输入问题并在简化后产生意图的 SPARQL 查询,通过对实体和关系的标签进行解释,并利用截断 KG 嵌入进一步优化结果,在 Wikidata 数据集下获得了强有力的端到端 KGQA 性能.
Mar, 2023
文章提出了一种名为 TransferNet 的有效且透明的多跳问答模型,支持在统一框架下使用标签和文本关系,并通过实验表明在 MetaQA 上可以标记得到 2 跳和 3 跳问题的 100% 准确性。
Apr, 2021
本文提出一种多模态图变换器,它利用了文本和视觉数据的多模态信息,并通过结构化学习和图神经网络的方法对自注意力进行约束以提高推理能力,适用于需要跨多个模态执行推理的问题回答任务。我们通过在 GQA,VQAv2 和 MultiModalQA 数据集上进行实验来验证这种方法的有效性,表明多模态图变换器优于 Transformer 模型基线。
Apr, 2023
本研究提出了一种基于关系感知图形注意力网络(ReGAT)的 VQA 模型,该模型通过图形注意机制将每个图像编码为图形,再通过多类型的物体关系建模,以学习问题自适应的关系表示,并在 VQA 2.0 和 VQA-CP v2 数据集上优于现有的 VQA 方法,同时具有通用的关系编码器功能。
Mar, 2019
我们提出了一种名为 GRT 的图形关系 Transformer 方法,它使用边缘信息来计算转换器中图形关注操作,它在视觉问答任务中取得了很好的效果。
Nov, 2021
论文提出了一种面向社区问答平台的自动答案排序方法 —— 基于图的三重注意力网络(GTAN),通过图神经网络学习回答相关性和一个三重注意力方法生成回答排名分数,实验结果表明 GTAN 在三个实际 CQA 数据集上优于最先进的答案排名方法。
Mar, 2021
本文提出了一种新的基于超图的模型,用于解决知识库视觉问答中的多跳推理问题。该模型可以将高级问题的语义和知识库相结合,并通过超图内部和跨越两个超图之间的关联编码来预测答案。我们的实验证明了该方法的有效性。
Apr, 2022
本研究提出了 QAGCN—— 一种简单而有效的使用注意力图卷积网络的多步推理问题答案推导模型,避免了传统复杂推理机制的不稳定性和低至。经过广泛的实验,我们证明了 QAGCN 在几个具有挑战性的数据集上与当前最先进的基于深度强化学习的方法相比非常有竞争力,提高了效率并保持了高的解释性。
Jun, 2022