GRN: 用门控关系网络增强卷积神经网络以提升命名实体识别性能
本文研究了依赖树在使用一组 GCN 的命名实体识别器中的作用。我们对不同的 NER 架构进行比较,并表明一句话的语法对结果产生积极影响。在 OntoNotes 数据集上的实验表明,在不需要大量特征工程或额外的语言特定知识的情况下,可以实现一致的性能改进。
Sep, 2017
本文提出了一种基于循环神经网络的简单框架,并将其与基于卷积神经网络的模型进行比较。该模型在处理句子关系分类问题时具有学习长距离依赖关系模式的优点,并在使用 MIMLRE 数据集的实验中表现出优异的性能。
Aug, 2015
该研究提出了一种名为 GloRe 的全局推理单元,实现了卷积神经网络对于远距离区域之间的全局关系的建模,能够有效提升图像识别、语义分割和视频行为识别等计算机视觉任务的性能。
Nov, 2018
本文提出了一种专门针对地震震中和天气预测等问题的图形卷积递归神经网络 (GCRNN) 架构,使用卷积滤波器组保持可训练参数的数量与图形尺寸和时间序列无关,并提出了 Gated GCRNNs,一种类似于 LSTM 的时间门控变体。在使用合成和实际数据进行的实验中,与 GNN 和另一种图形递归架构相比,GCRNN 显着提高了性能,同时使用的参数数量要少得多。
Mar, 2019
该研究提出了一种基于图神经网络和潜在空间的方法,以降低图的复杂度从而实现对视觉特征的非局部关联表示,并在三项主要的视觉识别任务上展示了其具有较高的性能和较低的计算成本。
May, 2019
本文介绍一种有效的方法,通过聚合来自最相关的图像区域的上下文感知特征及其在区分细粒度类别中的重要性来捕获细微变化,避免边框和 / 或可见部分注释,并通过自我关注和图形神经网络的最新进展来包括一种简单而有效的关系感知特征变换及其在端到端学习过程中的性能评估。评估了我们的模型,发现其在八个细粒度对象和人类对象交互数据集上的识别准确性显著优于现有技术。
Sep, 2022
本文介绍了图卷积循环网络(GCRN),这是一种深度学习模型,能够预测结构化数据序列。GCRN 是经典递归神经网络(RNN)在任意图结构数据上的泛化。该模型将图上的卷积神经网络 (CNN) 与 RNN 相结合,以找出动态模式和空间结构,并将其应用于 MNIST 数据预测和 Penn Treebank 数据集的自然语言建模。实验表明,同时利用数据的图空间和动态信息可以提高精度和学习速度。
Dec, 2016
我们提出了使用关系图卷积网络(RGCNs)进行情感分析的方法,该方法通过捕捉作为图中节点表示的数据点之间的依赖关系,提供了解释性和灵活性。通过在亚马逊和 Digikala 数据集上使用预训练的语言模型(如 BERT 和 RoBERTa)与 RGCN 架构进行产品评论的情感分析,并评估结果,我们证明了我们方法的有效性。我们的实验证明了 RGCNs 在捕捉情感分析任务的关系信息方面的有效性。
Apr, 2024
本研究探讨了一种名为 Convolutional Attention Network (CAN) 的中文命名实体识别方法,该方法基于字符级卷积神经网络与门控循环神经网络,通过局部注意层和全局自注意层来捕获相邻字符和句子上下文的信息,并不依赖于外部词典等资源,使用小的字符嵌入,有效地提高了识别性能。该方法在微博、MSRA 和中文简历数据集等不同领域数据集上表现优于现有最先进方法,且不需要使用字嵌入和外部词典资源。
Apr, 2019
本文提出了一种神经方法来解决中文命名实体识别的挑战,该方法包括使用 CNN-LSTM-CRF 神经架构来捕捉 CNER 的本地和长距离上下文,引入统一框架来联合训练 CNER 和分词模型以增强 CNER 模型在识别实体边界方面的能力,以及使用自动方法从现有标记数据生成伪标记样本来扩充训练数据。实验结果表明,该方法特别适用于训练数据不足的情况下,可以有效提高中文命名实体识别的性能。
Apr, 2019