利用多感 LSTMs 将文本映射到知识图谱实体
本论文提出一种基于顺序文本的知识表示学习方法,通过循环神经网络、注意力机制等实现对实体语义信息的编码和选取信息量高的语句,以及在三元组分类和链接预测任务中实现了优异的效果。
Sep, 2016
使用大型语言模型 MapperGPT 进行术语资源的对齐和实体映射,在结构和词汇信息的基础上,与高检索率的方法相结合,能够显著提高准确性,超过 LogMap 等现有方法。
Oct, 2023
本文研究如何提高知识图谱的完整性,通过引入 LP-BERT 模型,并结合语义匹配以及数据增强的方法,实现了知识图谱补全任务的最新成果,优于现有最佳表现。
Jan, 2022
本研究详细介绍了一个基于丰富的单词嵌入的组成分布式框架,旨在促进句子中单词之间的交互,并使用环境中的句法信息来增强向量。研究结果表明,该框架在 MSRPar 任务上取得了具有代表性的结果。
Aug, 2015
我们提出了一种神经网络模型,该模型可共同学习文本和知识库实体的分布式表示。我们使用基于维基百科的大量文本和其实体注释来训练模型,并在涉及无监督和有监督设置的三个重要 NLP 任务(即句子文本相似性,实体链接和短问答)上进行了评估。在所有三个任务上,我们都取得了最先进的结果。
May, 2017
本文介绍如何使用外部知识库,提出了一种用于改进机器阅读的循环神经网络的新型神经模型 KBLSTM,并使用具有哨兵的注意机制来自适应地决定是否关注背景知识以及哪些知识对于信息提取是有用的,实验结果显示,该模型在广泛使用的 ACE2005 数据集上实现了准确性,超过了之前最先进的结果。
Feb, 2019
本文分析了当前基础 LLM (ChatGPT) 与专门的预训练模型 (REBEL) 的联合实体和关系提取应用,以可持续发展文本为案例进行了多个实验,结果表明,使用先进的 LLM 模型可以提高从非结构化文本创建知识图谱的过程的准确性,并探索了使用基础 LLM 模型自动创建本体论的潜力,取得更相关和准确的知识图谱。
May, 2023
提出一种新的框架,将词汇、实体和关系嵌入到同一连续向量空间中,通过对知识图谱和纯文本的联合学习,可以更准确地完成知识图谱补全,实现实体预测、关系预测和关系分类等任务,并且相比其他基线模型,在三项任务上均可以显著且持续地提高性能。
Nov, 2016
本文介绍了 TextEnt,一种神经网络模型,它直接从知识库(KB)中学习实体和文档的分布式表示。通过训练我们的模型来预测文档所描述的实体并将文档和目标实体映射到连续向量空间中,其性能得到了良好的评估。
Jun, 2018
本文介绍了一个大规模、有挑战性的数据集,以促进知识图谱到文本分类的实际场景研究,同时提出了一种多图结构和聚合方法,以更全面地代表原始图信息,并成功解决信息丢失和参数爆炸的问题。
Apr, 2020