本文提出一种新方法用于从自由文本中提取关系,该方法通过从知识库中学习单词和实体关系的低维嵌入来联合使用文本和现有知识信息,实验证明该方法能够有效地利用大量 Freebase 数据 (4M 实体、23k 关系) 提供的额外信息来改善仅依赖于文本特征的现有方法。
Jul, 2013
本文提出了一个创新的关系抽取任务的体系结构,其将语义信息与知识库建模相结合。该模型通过将句子编码为上下文关联嵌入来进行关系抽取,并结合参数化实体嵌入来评分关系实例。该 CRE 模型在来自纽约时报注释语料库和 FreeBase 的数据集上实现了最新的表现。
Nov, 2020
本文提出了基于双语词向量映射的方法,将一个好的源语言神经网络关系抽取模型直接应用于目标语言,从而实现了跨语言关系抽取模型的转移。实验证明该方法在多种目标语言中表现出较好的性能。
Oct, 2019
通过基于神经嵌入的方法,学习知识库中实体和关系的表示,并将大多数现有模型统一到一个学习框架下,比较各种嵌入模型在链接预测任务上的表现,其中一个简单的双线性公式在任务中取得新的最优结果;此外,利用此模型可以挖掘逻辑规则,其中包含组合推理,并且此方法在 Horn 规则挖掘方面表现优秀。
Dec, 2014
该论文提出了一种基于对比学习的 LMKE 方法,采用语言模型从文本信息中推导出知识嵌入,旨在丰富长尾实体的表征,并解决以前的基于描述的方法的问题,实验结果表明 LMKE 在知识嵌入基准测试中特别是长尾实体上取得了最先进的性能.
Jun, 2022
本文提出了一种实体知识注入框架,以加强当前的文档级关系提取模型,并通过两个基准数据集的实验证实了我们扩展核链和融合知识图和文档表示的能力提高了文档级关系提取模型的一致性
Jul, 2022
本文提出了一种新的 RE-KBQA 框架,利用知识库中的关系来增强实体表示并引入额外的监督方法以提高知识库问答的效果,通过实验证明此框架的优越性,从而提高 F1 分数。
May, 2023
本研究提出了一种知识增强的生成模型,能够前所未有地利用知识图谱来解决关系抽取问题中的歧义,显著提高了在多个基准测试和设置下的性能表现。
提出了一种用多个知识库来加强大型模型表示的方法,每个知识库都通过一个集成实体链接器来检索相关实体嵌入,然后通过单词与实体关注的形式更新上下文单词表示,经实验发现知识增强的 BERT 模型具有更好的性能,且运行时间与 BERT 相当。
Sep, 2019
本论文使用预训练的知识图谱嵌入模型,结合文本语料库的句子级上下文表示,实现了较高性能的关系抽取模型,并通过实验验证了该方法的有效性和出色性能。
Jun, 2023