利用知识关注力提高关系提取
本研究提出了一种知识增强的生成模型,能够前所未有地利用知识图谱来解决关系抽取问题中的歧义,显著提高了在多个基准测试和设置下的性能表现。
Jun, 2022
本文提供数据集和范例来定量评估注意力和知识图谱对于包级关系抽取的效应,发现高的准确率可能会导致更差的性能,并且性能会受到各种噪声分布模式的影响,增强型的 KG 注意力的确提高了关系抽取性能,但不是由于增强了注意力,而是通过引入实体先验知识。
Jul, 2021
本研究提出了一种轻量级神经框架,使用实体感知的词嵌入方法、自注意机制和基于丰富语境表示的汇聚门来解决监督远程关系提取的问题和减轻之前机制的缺陷,实现了最高的分类准确性和最佳的实验结果。
Nov, 2019
本论文使用预训练的知识图谱嵌入模型,结合文本语料库的句子级上下文表示,实现了较高性能的关系抽取模型,并通过实验验证了该方法的有效性和出色性能。
Jun, 2023
本文提出了一种通过层级循环神经网络和残差学习的知识库关系检测方法,并结合实体链接技术实现了简单问题和复杂问题的全新的知识库问答系统。实验结果表明,该方法检测性能优异且能够帮助问题回答系统取得最佳准确度。
Apr, 2017
该论文提出了一种名为 KEAR 的系统,即知识化外部关注作用于常识推理,能够显著提高现有 AI 系统的性能,在 CommonsenseQA 上达到了人类水平的正确率。
Dec, 2021
该研究论文提出了基于注意力机制的特征嵌入方法,能有效地捕捉到三元组周边复杂和隐式的信息,并在多个数据集上相对于现有方法实现了显著的性能提升。
Jun, 2019
为了解决文本中的语义模糊问题,我们提出了一个模型,创新地将知识图谱与改进的注意机制结合起来。该模型在字符和词级别上运作,通过集成概念来加深对文本的理解。我们首先采用信息增益选择重要词,然后采用编码器 - 解码器框架对文本及相关概念进行编码。本地注意机制调整每个概念的权重,在分类过程中减少不相关或噪声概念的影响。我们改进了本地自注意机制中注意分数的计算公式,确保文本中不同频率出现的词语获得更高的注意分数。最后,该模型采用了双向门控循环单元(Bi-GRU),从文本中提取特征以提高分类准确性。该模型在 AGNews、Ohsumed 和 TagMyNews 等数据集上达到了 75.1%、58.7% 和 68.5% 的准确率,展示了其在分类任务中的有效性。
Jan, 2024
本文提出一种利用简单变换将外部知识纳入注意机制来使 NLI 模型更加稳健的方法,将其应用于 Transformer 编码器和可分解模型中,结果表明该方法可以显著提高它们的稳健性。并且,在与 BERT 预训练相结合时,在对抗 SNLI 数据集上实现了人类水平的性能。
Aug, 2019
本文提出了一种新颖的方法,将外部知识纳入循环神经网络中,通过在注意力分布中引入词汇特征来提高模型的表现,我们介绍了三种方法,并在六个基准数据集上进行了实验,结果表明这种方法可以产生稳定的性能提升,并且可以适用于任何深度神经网络架构。
Jun, 2019