实体邻域信息和描述信息的联合表示学习方法研究
提出一种新的框架,将词汇、实体和关系嵌入到同一连续向量空间中,通过对知识图谱和纯文本的联合学习,可以更准确地完成知识图谱补全,实现实体预测、关系预测和关系分类等任务,并且相比其他基线模型,在三项任务上均可以显著且持续地提高性能。
Nov, 2016
本文提出了一种称为实体邻居的新型附加信息,并使用深度记忆网络模型编码邻居信息。通过引入门控机制,结构和邻居的表征被整合成一个联合表征,实现了知识图谱嵌入(KGE)技术中实体表示的最新技术性能。
Aug, 2018
本文提出了一种使用图卷积神经网络(GCN)学习实体和关系表示的新颖联合学习框架,以改善实体对齐,并证明利用有用的关系表示来协助实体对齐是一种简单而有效的方法。通过在三个真实的跨语言数据集上进行的实验表明,我们的方法显著优于现有的实体对齐方法。
Sep, 2019
本文介绍了一种新的实体表示方法,并将其应用于知识库补全中的 TransE 嵌入模型,实验证明这种方法可以明显提高 TransE 模型在三种基准数据集上的性能。
Jun, 2016
本文提出一种新颖的深度架构,以利用实体的结构和文本信息的宝贵信息。其中,注意力模型可以选择所需的相关信息,并应用门控机制将结构和文本的表征集成到一个统一的架构中。实验表明,我们的模型在链接预测和三元组分类任务上的表现优于基线。
Nov, 2016
本文介绍了 TextEnt,一种神经网络模型,它直接从知识库(KB)中学习实体和文档的分布式表示。通过训练我们的模型来预测文档所描述的实体并将文档和目标实体映射到连续向量空间中,其性能得到了良好的评估。
Jun, 2018
本研究论文介绍了一种新颖的模型,将知识图谱中的实体和关系编码为低维向量空间,并将上下文信息和字面信息融入到实体和关系嵌入中,使用图卷积网络进行建模,通过置信度和相关性度量评估上下文信息的重要性,并通过字面信息的表示来计算相关性度量。我们在两个常用基准数据集上进行了全面的实验证实以验证模型的性能。
Dec, 2023
本篇论文提出了一种新的深度学习模型,用于联合文档级别实体消歧,该模型以学习到的神经表示为基础。该方法通过实体嵌入,对本地上下文窗口进行神经注意机制,以及可微分的联合推理阶段进行消歧,将深度学习的优势与传统的图形模型和概率提及实体映射的方法相结合。广泛的实验表明,我们能够在中等计算成本下获得有竞争力或最先进的准确性。
Apr, 2017
我们提出了一种神经网络模型,该模型可共同学习文本和知识库实体的分布式表示。我们使用基于维基百科的大量文本和其实体注释来训练模型,并在涉及无监督和有监督设置的三个重要 NLP 任务(即句子文本相似性,实体链接和短问答)上进行了评估。在所有三个任务上,我们都取得了最先进的结果。
May, 2017
该论文提出了一种基于图注意机制和变压器结构的新闻推荐方法,可以通过对历史用户点击行为的图谱表达用户和新闻相关性,进而学习用户和新闻的表征,实现个性化推荐。
Mar, 2020