将上下文融入知识图谱以用于常识问答
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
该研究提出了两种方法,通过外部常识知识图谱,隐式或显式地融入到预先训练好的自然语言处理模型中,以提高社交智能,这种方法对社交常识推理任务 SocialIQA 的表现在有限和完整的训练数据制度下都表现出良好的效果。
May, 2021
本文提出了将外部常识知识与语言模型相结合的方法,以提高多选题目中常识知识的应用。研究人员采用三种不同的知识插入策略和四种不同的问题 - 回答模型,分析预测结果并探索进一步改进的范围。
Sep, 2019
本文提出了一种基于知识库和维基百科文本的异构证据自动提取方法以回答常识问题,通过构建图形结构并使用图形卷积网络对邻居信息进行编码并利用图形注意力机制聚合证据来预测最终答案,成功地提高了 CommonsenseQA 数据集上的准确性达到了最先进水平。
Sep, 2019
本文研究了将知识图谱转化为自然语言文本的任务,主要讨论了广泛的开放领域大规模语言生成的挑战,将知识图谱转化为自然语言文本,从而提高了语言模型的事实准确性和减少了毒性。通过对开放领域 QA 和 LAMA 知识探测的任务进行评估,表明该方法在文本检索方面有很大的优势。
Oct, 2020
本文提出了一种新的神经网络模型 KEAG,该模型利用外部知识解决 QA 问题,能够比现有的知识感知 QA 模型生成更高质量的答案,并证明其在利用知识方面的有效性。
Sep, 2019
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
该研究提出了一种将多种知识源集成起来的问题回答方法,着重利用基于图的迭代知识检索模块和答案感知的注意机制,从多个知识源中检索和综合背景知识,并在 CommonsenseQA 数据集上实现了最优的表现。
Nov, 2020
本文提出了使用具有知识的路径生成器增强普通常识问题回答框架的方法,并使用现有路径和最先进的语言模型外推,生成连接文本中一对实体的动态,可能是新颖的多跳关系路径,从而提供解决常识问题所需的结构化证据。两个数据集上的实验表明,我们的方法优于之前完全依赖 KG 知识的研究(精度提高了高达 6%),而且生成的路径通常是可解释的、新颖的,也与任务相关。
May, 2020