利用知识图谱增强神经机器翻译
提出了一种增强学习模型的方案,即通过知识图谱的事实三元组来为自然语言处理任务提供上下文知识,并采用基于卷积的模型来减少关注空间,从而大大提高了文本分类和自然语言推理任务的性能。
Feb, 2018
自然语言处理和计算机视觉领域中近期的研究一直在利用知识图谱中可用的文本信息,例如实体名称和描述,来将神经模型与高质量的结构化数据对接。然而,在非英语语言中,可用的文本信息的数量和质量相对较少。为了解决这个问题,我们提出了自动知识图谱增强(KGE)的新任务,并对英语和非英语语言之间的文本信息的数量和质量差异进行了深入研究。作为对增加多语言覆盖率和实体名称、描述精确度的问题的研究,我们呈现了 M-NTA,一种新的无监督方法,结合了机器翻译(MT),网络搜索(WS)和大型语言模型(LLMs)以生成高质量的文本信息,并研究了增加非英语文本信息的多语言覆盖率和精确度对实体链接、知识图谱补全和问题回答的影响。作为我们朝着更好的多语种知识图谱的努力的一部分,我们还介绍了 WikiKGE-10,第一个跨 7 个语系评估 10 种语言中的 KGE 方法的人工策划的基准。
Nov, 2023
利用大型语言模型来生成和增强知识图谱中的层次结构,对于小型领域特定的知识图谱,少量短期作用结合一次产生能够良好地运行,而较大的知识图谱可能需要周期性生成。我们提出了增强层次结构的技术,使我们的知识图谱的意图覆盖率增加了 98%,颜色覆盖率增加了 99%。
Apr, 2024
本文提出了使用多语言知识图谱三元组进行直接训练的基于知识的多语言语言模型。通过生成大量的多语言合成句子并设计预训练任务,实现了 KMLMs 对事实知识和逻辑模式的学习,并在跨语言任务中展示了显著的性能提升,包括命名实体识别(NER)、事实知识检索、关系分类和新设计的逻辑推理任务。
Nov, 2021
使用知识图谱增强对话代理的准确性和全面性,但在对话时生成文本仍被认为是一项具有挑战性的任务,本文回顾了知识图谱文本生成的不同架构,包括图神经网络、图变换器和序列到序列模型,选择使用序列到序列变压器模型(PLMs)作为知识图谱到文本生成任务的模型,并探索未来多语言维度的研究方向。
Jul, 2023
使用多任务框架,将文本描述与知识图谱实体相关联,以改进知识图谱的性能,并通过检索模型选择富有信息或高度相关的文本描述来增强实体。实验结果显示,与传统的卷积神经网络相比,使用文本增强的知识图谱方法在链接预测中的 Mean Reciprocal Rank (MRR) 和 Hits@10 分别提高了 5.5% 和 3.5%。
Jul, 2023
本文研究如何提高知识图谱的完整性,通过引入 LP-BERT 模型,并结合语义匹配以及数据增强的方法,实现了知识图谱补全任务的最新成果,优于现有最佳表现。
Jan, 2022