本研究提出了一种新的神经实体链接模型,将实体链接中的关系视为潜在变量,并在优化实体链接系统的同时诱导这些关系,同时取得了 AIDA-CoNLL 基准测试上最好的结果。
Apr, 2018
本文介绍了一种用于解决生物医学领域实体链接问题的模型 LATTE,该模型通过建模提及和实体的潜在类型信息来提高实体链接的性能,并且在 MedMentions 数据集和医生笔记语料库上取得了显著的表现提升。
Nov, 2019
本文提出了一种新颖的端到端循环神经模型,结合了实体感知的注意力机制和潜在实体类型(LET)方法,以解决语义关系分类任务中现有模型对高级语义和句法特征的过度依赖和未充分利用实体信息等问题。在 SemEval-2010 任务 8 上的实验结果表明,该模型在无需高级特征的情况下胜过现有最先进的模型。
Jan, 2019
使用 BERT 模型结合用于上下文文本表示的模型来一并训练实体链接系统,在一个实体链接基准数据集上,我们的模型得分第二,但在其他自然语言处理基准数据集上对于实体知识的了解并没有提高模型的表现。
Mar, 2020
通过实体链接,结合上下文信息和查询结果,我们提出了一种深度神经模型,用于精细化实体类型分类。在两个数据集上的实验结果表明,相对当前最先进水平,我们的方法分别取得了超过 5%的绝对严格准确度提高。
Sep, 2019
通过填充空白的任务来学习来自文本上下文中提及的实体的上下文无关表示,结果展示了 Neural 模型的大规模训练可以学习到高质量的实体表示,并在四个领域展示了成功的结果。
Jan, 2020
本篇文章研究使用知识图谱中的实体信息是否有助于基于 BERT 的实体检索模型,结果表明使用实体信息的 BERT 模型在复杂自然语言查询和属性筛选等实体相关查询任务中相比传统 BERT 模型具有更好的推荐效果,并且使用该模型可以在数据不足的情况下进行微调以实现对实体搜索的数据有效训练。
May, 2022
该论文介绍了一种可以构建鲁棒实体链接模型的方法,该方法将注意力放在建立细粒度实体属性的模型上,具有更好的泛化性能,使用维基百科类别的大型库存来远程标记数据并训练实体类型模型,使用软类型预测将提及链接到最相似的候选实体上。
本文旨在在解码阶段对实体类型进行建模,以生成准确的上下文词汇,实验表明注入类型在实体提及生成过程中的表现优于现有的类型嵌入拼接基线。
Sep, 2020
本文提出了一种基于双向 transformer 的新预训练上下文表示方法来处理实体,通过在维基百科中的大型实体注释语料库上预测随机屏蔽的单词和实体,训练了一个新的与实体相关的自注意机制,实现了在实体相关任务中的良好表现。
Oct, 2020