面向中文文献文本的实体关系分类的结构正则化神经网络
本研究提出了一种模型,结合了预训练的 BERT 语言模型和目标实体信息,来解决关系分类任务。通过定位目标实体和在预训练模型中传递信息,并整合两个实体的相应编码信息,我们在 SemEval-2010 任务 8 关系数据集上取得了显著的改进。
May, 2019
该研究提出了一种基于 BERT 语言模型和聚焦注意力机制的联合实体和关系抽取模型,通过动态范围注意机制,提高了共享参数层的特征表示能力,实验结果表明,该方法在冠状动脉造影文本上的名词实体识别和关系分类任务的 F1 得分分别达到 96.89% 和 88.51%,优于现有技术水平。
Aug, 2019
本文提出了基于卷积神经网络和循环神经网络集成的关系分类和抽取系统,在 SemEval 2018 任务 7 的 4 个子任务中中有 3 个排名第一。我们提供了设计选择背后最相关特征的详细解释和论据,并分析了它们的重要性。
Apr, 2018
本篇论文介绍了我们参加 BioNLP Shared Tasks 2019 后在 Named Entity Recognition 和 Relation Extraction 方面的方法,我们的方法可以概括应用于不同语言的文本,包括英语和西班牙语,其中我们使用了语言特征,混合损失,多任务目标和令牌级合成策略以提高 Named Entity Recognition 的性能,使用基于字典的模糊和语义搜索来执行实体标准化, 最后,我们的 Relation Extraction 系统使用带语言特征的 Support Vector Machine,并在相关任务上表现出色。
Oct, 2019
本文提出了一种基于循环神经网络的简单框架,并将其与基于卷积神经网络的模型进行比较。该模型在处理句子关系分类问题时具有学习长距离依赖关系模式的优点,并在使用 MIMLRE 数据集的实验中表现出优异的性能。
Aug, 2015
本文提出了一种神经方法来解决中文命名实体识别的挑战,该方法包括使用 CNN-LSTM-CRF 神经架构来捕捉 CNER 的本地和长距离上下文,引入统一框架来联合训练 CNER 和分词模型以增强 CNER 模型在识别实体边界方面的能力,以及使用自动方法从现有标记数据生成伪标记样本来扩充训练数据。实验结果表明,该方法特别适用于训练数据不足的情况下,可以有效提高中文命名实体识别的性能。
Apr, 2019
本文提出了一种 SDP-LSTM 神经网络方法,并使用其进行语句中两个实体之间的关系分类,其相较于现有方法在 SemEval 2010 关系分类任务上获得了 83.7%的高 F1 值。
Aug, 2015
本文提出了一种新颖的端到端循环神经模型,结合了实体感知的注意力机制和潜在实体类型(LET)方法,以解决语义关系分类任务中现有模型对高级语义和句法特征的过度依赖和未充分利用实体信息等问题。在 SemEval-2010 任务 8 上的实验结果表明,该模型在无需高级特征的情况下胜过现有最先进的模型。
Jan, 2019
本文提出了一种通过层级循环神经网络和残差学习的知识库关系检测方法,并结合实体链接技术实现了简单问题和复杂问题的全新的知识库问答系统。实验结果表明,该方法检测性能优异且能够帮助问题回答系统取得最佳准确度。
Apr, 2017
本研究使用 Tree-LSTM 模型和 Tree-GRU 模型将句法分析树加入神经网络以编码关系中的参数,同时利用组成标记控制这些树状神经网络中的语义组合过程,实验结果表明我们的方法在 PDTB 语料库中达到了最先进的性能。
Mar, 2018