基于图像的知识表示学习
本文提出了一个知识图谱和门控图神经网络相结合的框架,名为知识嵌入表示学习框架,用于处理细粒度图像识别问题,并在广泛使用的 Caltech-UCSD 鸟数据集上进行了大量实验,证明了该框架超越现有的最先进方法。
Jul, 2018
本论文提出一种基于顺序文本的知识表示学习方法,通过循环神经网络、注意力机制等实现对实体语义信息的编码和选取信息量高的语句,以及在三元组分类和链接预测任务中实现了优异的效果。
Sep, 2016
本文综述了知识表示学习的动机和现有方法,并在知识获取的三个评估任务上对几种典型的 KRL 方法进行了广泛的定量比较和分析。此外,我们还回顾了 KRL 的实际应用,包括语言建模、问答、信息检索和推荐系统,并讨论了剩余的挑战和未来的方向。
Dec, 2018
提出一种使用知识库指导的、包括多个抽象概念的多实体标签图像识别模型,在描绘描绘未知 / 新物体的图像生成模型中,利用第一步预测的抽象概念作为外部语义关注和约束推理的依据,以处理野外图像中的抽象概念,对 MSCOCO 数据集进行了实验验证,结果显示出了优于以前大部分工作的性能,并可用于知识和视觉的通用集成。
Oct, 2017
本文通过一个综合评估协议,探讨了使用预测链接的实体表示学习,并考虑了线性预测和实体分类任务以及针对面向实体的搜索的信息检索任务,通过一个预训练的语言模型体系结构,证明这些学习的表示不仅适用于 KG 特定任务,还具有比之前的方法更强的泛化性能,同时也在其他任务方面表现出色。
Oct, 2020
本文提出了三种知识图谱表征模型,分别是 HypER、TuckER 和 MuRP,它们都能够自动预测缺失的关系,并且在性能方面不断取得进步。同时,该文还将最新的理论研究成果推广到了知识图谱的领域,探讨了如何在这些模型中编码不同种类的关系。
Jan, 2022
本文介绍了 TextEnt,一种神经网络模型,它直接从知识库(KB)中学习实体和文档的分布式表示。通过训练我们的模型来预测文档所描述的实体并将文档和目标实体映射到连续向量空间中,其性能得到了良好的评估。
Jun, 2018
本文提出了 ERNIE,使用大规模的文本语料库和知识图谱(KGs)同时训练,利用 KGs 中的外部知识来增强语言表征,实验证明在不同知识驱动任务上 ERNIE 显著提高性能,同时在其他常见 NLP 任务上与 BERT 的性能相当。
May, 2019
本文提出了一种通过层次强化学习来学习知识增强语言表示的方法,该方法集成了知识图谱中的关系三元组,并通过自监督学习将这些外部数据源整合到语言模型中,以避免注入不准确或不相关的知识,并有效地提升了模型在各种自然语言理解任务上的性能。
Jun, 2024