使用 LSTM 对序列和树结构进行端到端的关系提取
本研究提出了一种集成神经网络模型 —— 自适应 Boosting LSTMs with Attention,通过适应性增强的多个 LSTM 分类器的集成,能够构建更加有效和稳健的联合神经网络关系提取器,实验结果表明,该模型相对于现有的最先进模型,F1 得分提高了约 8%。
Jan, 2018
提出了一种简单而有效的依赖树导向的 LSTM-CRF 模型,以对命名实体识别(NER)任务中的完整依赖树进行编码并捕捉其相关属性,从而显著提高 NER 和实现领先水平,并发现依赖关系和依赖树提供的长距离交互是其主要原因。
Sep, 2019
本文提出了一种基于序列到序列模型的方法 seq2rel,使用实体推荐技术,可以替代传统的基于流水线任务的文档级关系抽取方法来同时完成抽取实体和关系的子任务,通过在几个受欢迎的生物医学数据集上的实验,本方法表现出了比现有流水线方法更优秀的性能,我们还展示了端到端方法超越流水线方法的结果。
Apr, 2022
本文提出了一种简单而强大的方法 —— Synergized-LSTM 来结合 linear sequences 和 dependency trees 两类特征以优化 named entity recognition 的效果;实验结果显示,相较于基于 LSTM 和 GCN 的模型,该方法在四种语言的多个标准数据集上均有更好的表现,同时需要更少的参数,并能够更好地捕获长距离依赖。
Apr, 2021
本文提出一种结合了 LSTM 和 CNN 模型的组合模型 (LSTM-CNN),利用词嵌入和位置嵌入来实现跨句子 n 元关系抽取。该模型利用了 LSTMs 和 CNNs 的特性,同时利用长距离的顺序信息和捕获大部分信息特征,是跨句子 n 元关系抽取的一种有效模型。该模型在标准数据集上进行评估,表现明显优于 CNN、LSTM 以及组合 CNN-LSTM 模型,并且优于当前跨句子 n 元关系抽取研究的最新成果。
Nov, 2018
本文提出了一种基于图形 LSTM 网络的关系抽取框架,可用于跨句子的 n 元关系抽取,并在两个重要的精准医学设置中进行了评估,证明了其有效性,同时也说明了多任务学习和跨句子抽取的重要性。
Aug, 2017
本文提出使用基于 LSTM 简单统一的模型从文本中恢复不同类型的时间关系,通过依存路径提供输入,同时包括句内、句间和文档创作时间关系。运用双重检查技术,在分类中颠倒实体对,提高正例召回率并减少相反类之间的错误分类。最后,使用有效的剪枝算法在全局解决冲突。该方法在 QA-TempEval(SemEval2015 任务 5)上表现优于现有的方法。
Mar, 2017
本文提出了一种新颖的端到端循环神经模型,结合了实体感知的注意力机制和潜在实体类型(LET)方法,以解决语义关系分类任务中现有模型对高级语义和句法特征的过度依赖和未充分利用实体信息等问题。在 SemEval-2010 任务 8 上的实验结果表明,该模型在无需高级特征的情况下胜过现有最先进的模型。
Jan, 2019
本文提出一个神经网络模型,用于联合抽取命名实体和它们之间的关系,无需手动设计特征。该模型采用深度双仿射关注层扩展了 BiLSTM-CRF 实体识别模型,以建模关系分类中潜在特征的二阶交互。在 benchmark 数据集 CoNLL04 上进行实验,结果显示该模型的表现优于之前的模型,创造了新的最好表现。
Dec, 2018