用于命名实体识别的图卷积网络
这篇研究论文介绍了一种简单有效的方法来将句法结构融入到神经注意力编码解码模型中,以实现机器翻译。文中使用了预测的源句子句法依赖树,用于生成敏感于句法周边的单词表示,以达到最佳效果。研究的实验结果表明,在英德翻译和英捷翻译方面的所有设置中,与其不考虑语法结构的版本相比,该方法均有显著的改善。
Apr, 2017
提出了一种简单而有效的依赖树导向的 LSTM-CRF 模型,以对命名实体识别(NER)任务中的完整依赖树进行编码并捕捉其相关属性,从而显著提高 NER 和实现领先水平,并发现依赖关系和依赖树提供的长距离交互是其主要原因。
Sep, 2019
本文提出了一种基于 gated relation network 的卷积神经网络模型,用于更好地捕捉词汇间的长期关联以用于命名实体识别,实验结果表明,该模型可以在 CoNLL2003 和 Ontonotes 5.0 数据集上实现最先进的性能。
Jul, 2019
本文提出了一种简单而强大的方法 —— Synergized-LSTM 来结合 linear sequences 和 dependency trees 两类特征以优化 named entity recognition 的效果;实验结果显示,相较于基于 LSTM 和 GCN 的模型,该方法在四种语言的多个标准数据集上均有更好的表现,同时需要更少的参数,并能够更好地捕获长距离依赖。
Apr, 2021
该论文探讨了如何更好地利用依存树传达的结构化信息来提高实体识别的性能,新提出的基于依存树指导的实体识别模型在相对较短的运行时间内表现出与传统半 - Markov 条件随机场模型同等的竞争力。
Oct, 2018
本文提出了一种基于图卷积网络的关系抽取模型,针对依存句法树存在的缺陷进行了改进,通过保留两个实体间最短路径周围的词语并采用并行化方法来高效地汇总任意依存句法结构中的信息,最终在大规模 TACRED 数据集上取得最先进的性能,且与序列模型互补,二者结合可以进一步提高性能。
Sep, 2018
本研究提出了一种新模型 ——AGGCNs,该模型通过自动学习选择性地关注依存树的相关子结构,有效地利用依存树的结构信息来提取实体之间的关系,从而在交叉句 n 元关系抽取和大规模句子级关系抽取等多项任务中均优于现有方法。
Jun, 2019
本文提出 TensorGCN 框架,基于图卷积神经网络进行文本分类,结合单个图的邻域信息和不同图的异构信息进行内部图和跨图传递信息的聚合和协调,实现了在不同种类图中集成异构信息的有效方式。
Jan, 2020
本文介绍了一种基于图卷积神经网络的文本分类算法 (Text GCN),该算法利用单一的文本图构建并联合学习词和文本的表征,经实验表明,将该算法应用于多个基准数据集后,在无需外部词嵌入和预先知识的情况下,文本 GCN 仍可优于现有的文本分类方法。
Sep, 2018