KG^2: 使用上下文知识图嵌入学习科学考题推理
本文提出了一套完整的科学问题解答所需的知识和推理类型定义方法,回答 ARC 数据集中的问题需要的标注信息分布和相关统计的分析,证明了人工选取的相关句子能够提高神经机器理解模型的 42 个百分点的性能。
Jun, 2018
这篇论文介绍了一个基于科学问题的 AI2 Reasoning Challenge(ARC)的新问题集、文本语料库和基线模型的构建,这需要比之前的挑战如 SQuAD 或 SNLI 更强大的知识和推理能力,包含了自然、初中科学问题的最大公共数据集,并测试了几种基线模型,但没有一种能够有效地解决这个艰巨的任务。
Mar, 2018
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
本文针对 ARCChallenge 数据集的超越式难题提出了一种系统,该系统利用查询重写、背景知识和文本属于性,成功地提高了端到端 QA 任务的性能,并超越了几个强基线。
Sep, 2018
本文介绍了一种基于知识图谱的问答系统,采取了一种新型的深度学习架构和端到端变分学习算法,可以同时处理问题中的噪声和多跳推理,在最新的基准数据集中取得了最优表现。
Sep, 2017
提出了一种简单而有效的方法来检索和重新排序与问题回答相关的三元组,并将它们与问题连接以提高语言模型的表现,实验结果显示,其在常识问答和开放式书本问答数据集上均表现优于现有的最佳方法。
May, 2023
该论文提出了一种名为 ReaRev 的 KGQA 推理方法,旨在提高指令解码和执行的效率,通过自适应更新初始指令以及使用图神经网络模拟广度优先搜索策略,该方法在三个 KGQA 基准测试中得到了比目前最先进的方法更好的表现,特别是在处理复杂问题或不完整知识图谱时。
Oct, 2022
提出了一种基于知识路线的视觉问题推理 VQA 模型评估数据集,通过控制程序来选择自然场景图和外部知识库中的三元组,强制进行多步推理,并平衡答案分布,以解决现有的 VQA 模型的浅层相关问题和注释程序不均衡的问题。
Dec, 2020
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
本文研究了在元学习范式下,少样本知识图谱推理的挑战和实际问题。提出了一种新的元学习框架,有效利用了本地图邻居和知识图谱中的推理路径等任务特定元信息。在两种少样本知识库补全基准测试中,我们展示了增强的任务特定元编码器比 MAML 更好,优于几个少样本学习基线模型。
Aug, 2019