实体识别作为多任务处理
本文提出一种多任务 Transformer 模型,该模型将实体边界检测任务整合到命名实体识别任务中,通过关系分类来实现实体边界检测,并采用外部知识库和自注意力及交叉注意力机制来提高解码时实体类型映射的准确性。在多个实验数据集上的实验结果表明,该方法显著提高了生成型 NER 模型的性能。
Mar, 2023
本文提出了一种新颖的神经网络模型,利用混合双向 LSTM 和 CNN 架构自动检测单词和字符级特征,并提出了一种将部分词典匹配编码到神经网络中的方法。经过广泛评估,使用两个来自公开资源的词典,该系统在 CoNLL-2003 数据集上达到 91.62 的 F1 分数,在 OntoNotes 上达到 86.28 的 F1 分数,超过了其他采用重度特征工程、专有词典和丰富的实体链接信息的系统。
Nov, 2015
该研究提出了一种名为 PAN 的端到端实体类型模型,通过利用类型的层次结构来学习噪声鲁棒性,该模型有效避免了在训练过程中的标签噪声和错误传播问题。
Oct, 2017
本文介绍基于双向 LSTM 和条件随机场,以及基于转移的方法的两种新的神经网络模型,这些模型不依赖于领域特定的知识和语言。通过使用监督语料库和未标注语料库,字符表示和无监督的学习表示,这些模型在四种语言中实现了名词实体识别的最先进性能。
Mar, 2016
提出一种基于 BERT 预训练和实体相似度分数的实体链接模型,通过注入潜在的类型信息到实体嵌入中,并结合一种基于 BERT 的实体相似度分数,显著提高了实体链接模型的性能。
Jan, 2020
本文提出了一种神经架构模型,用于将 fine-grained 语义类型分配给实体提及,并学习利用比以前更多的语义上下文信息(文档和句子级别)的分布式语义表示。实验结果表明,该方法在三个基准数据集上取得了最先进的结果,而不需要手工特征。
Apr, 2018
该论文介绍了一种可以构建鲁棒实体链接模型的方法,该方法将注意力放在建立细粒度实体属性的模型上,具有更好的泛化性能,使用维基百科类别的大型库存来远程标记数据并训练实体类型模型,使用软类型预测将提及链接到最相似的候选实体上。
Sep, 2019
本论文研究了包含文本节点和类型节点的异构星型图的表示学习,修正了一种混合形式的图注意力机制,解决了传统序列标注方法中忽略嵌套实体的问题,并提出了一种多层标注策略,经实验验证,该方法在提取扁平和嵌套实体方面均达到了最先进的性能水平。
Oct, 2022
本文研究使用盒子嵌入(box embeddings)模型来更好地捕捉细粒度实体类型之间的复杂相互依存关系,并与矢量嵌入模型进行比较,在几个实体类型基准测试中表现出最先进的性能和更好的预测一致性和置信度。
Jan, 2021
DeepType 是一种将符号信息显式地集成到神经网络推理过程中的模型,它通过构建类型系统并将其用于限制神经网络输出的符号结构来解决判断结构以及有效地捕捉信息的问题。在实验中,它用于 Entity Linking 任务,优于人工设计类型系统或最近使用深度学习相似性度量的方案,同时使用符号信息可以无需重新训练即可集成新实体。
Feb, 2018