本文提出了一个结合对比学习和外部知识的短文本匹配模型,使用生成模型构建补全句子,利用对比学习方法获得更加语义化的编码,使用关键词与知识库相结合构建知识图谱,通过的实验证明了该模型在两个中文文本匹配数据集上达到了最佳表现。
Apr, 2023
文本匹配是将两段文本进行匹配并确定它们之间的关系的任务,本文提出了一种名为知识增强文本匹配模型(KETM)的新模型,通过从外部知识源中丰富上下文表示来增强模型的理解和推理能力。实验证实了我们的模型在四个数据集上表现良好,并且与不添加外部知识的基础模型相比,我们的方法的性能得到了提高。
Aug, 2023
本研究介绍了一种名为 KENN 的神经符号一体化框架,其将先前的逻辑知识注入神经网络。通过增加一个残差层来修改初始预测,这种方法的优点之一是包含条款权重,这些可学习参数表示条款的强度和影响。本研究的扩展版本更适用于关系数据,并在实验中验证了其有效性和可扩展性。
May, 2022
该论文将主题实体图引入跨语言知识图谱对齐,通过图匹配和基于图注意力的模型来进行相似实体的匹配,实验证明该方法比现有的方法表现更好。
May, 2019
为了解决文本中的语义模糊问题,我们提出了一个模型,创新地将知识图谱与改进的注意机制结合起来。该模型在字符和词级别上运作,通过集成概念来加深对文本的理解。我们首先采用信息增益选择重要词,然后采用编码器 - 解码器框架对文本及相关概念进行编码。本地注意机制调整每个概念的权重,在分类过程中减少不相关或噪声概念的影响。我们改进了本地自注意机制中注意分数的计算公式,确保文本中不同频率出现的词语获得更高的注意分数。最后,该模型采用了双向门控循环单元(Bi-GRU),从文本中提取特征以提高分类准确性。该模型在 AGNews、Ohsumed 和 TagMyNews 等数据集上达到了 75.1%、58.7% 和 68.5% 的准确率,展示了其在分类任务中的有效性。
Jan, 2024
本论文提出一种基于顺序文本的知识表示学习方法,通过循环神经网络、注意力机制等实现对实体语义信息的编码和选取信息量高的语句,以及在三元组分类和链接预测任务中实现了优异的效果。
Sep, 2016
本研究提出了一种基于双向长短期记忆的新型两层注意网络,利用 WordNet 生成知识图嵌入来提高情感分析的预测能力,将其与基于支持向量回归和多层感知机网络的监督模型相结合,实验结果表明该模型在 SemEval 2017 上表现优于顶尖系统,分别将 Sub-tracks 1 和 2 的准确率提高了 1.7 和 3.7 个百分点。
May, 2018
本文研究了基于图神经网络的文本分类任务,提出了一种新的分层图神经网络模型(HieGNN),其在词级别、句子级别和文档级别分别提取相应的信息。实验结果表明与几个基准方法相比,我们的模型能够从样本中获得更多有用的分类信息。
Sep, 2022
利用预训练的句子转换器生成匹配候选项,接着使用优化的双重编码器来生成最佳匹配项以便自动匹配知识图谱和本体论。在多个数据集上进行了验证并展示了可行性和卓越的结果。
Apr, 2022
本文提出了一种通过层次强化学习来学习知识增强语言表示的方法,该方法集成了知识图谱中的关系三元组,并通过自监督学习将这些外部数据源整合到语言模型中,以避免注入不准确或不相关的知识,并有效地提升了模型在各种自然语言理解任务上的性能。
Jun, 2024