文本分类中的图卷积网络理解
该研究提出了一种名为N-GCN的模型,将图卷积网络和随机游走中的信息融合,训练多个GCNs实例,并学习组合不同距离下的节点对的实例输出,实现优化分类目标。实验证明,该模型在节点分类任务上表现优异,具有良好的通用性和鲁棒性。
Feb, 2018
本文介绍了一种基于图卷积神经网络的文本分类算法(Text GCN),该算法利用单一的文本图构建并联合学习词和文本的表征,经实验表明,将该算法应用于多个基准数据集后,在无需外部词嵌入和预先知识的情况下,文本 GCN 仍可优于现有的文本分类方法。
Sep, 2018
提出了一种新的基于图神经网络的模型,通过全局参数共享建立每个输入文本的图形而不是整个语料库的单个图形,这种方法支持在线测试,同时提取更多的本地特征和显著降低边缘数量以及内存消耗,在多个文本分类数据集上性能优于现有模型。
Oct, 2019
本文提出了VGCN-BERT模型,结合BERT和Vocabulary Graph Convolutional Networks(VGCN)的能力进行文本分类,实验证明其在多个文本分类数据集上性能优于单独使用BERT和GCN,并且比以前的研究效果更好。
Apr, 2020
本文介绍了一种基于图神经网络的新方法TextING,可用于词嵌入和归纳文本分类,并在四个基准数据集上进行了实验,取得了超过现有文本分类方法的优异成果。
Apr, 2020
本文提出了一种异构图卷积网络建模方法HeteGCN,结合了predictive text embedding (PTE) 和 TextGCN的优点用于文本分类,以解决现有方法预测能力、可扩展性和归纳能力的局限性。通过使用不同的图层在一个HeteGCN架构中学习特征嵌入并派生文档嵌入,将TextGCN简化为几个HeteGCN模型,从而简化了模型参数,以提高性能和训练速度。实验结果表明所提出的方法在小的标注训练集方案下有效。
Aug, 2020
本文提出了一种名为ME-GCN(多维边增强图卷积网络)的模型用于半监督文本分类,该模型能够利用图的丰富边缘信息,通过将边特征作为多流信号进行单独图卷积操作,达到对整个文本数据集较好的分类效果。
Apr, 2022
本研究提出了一种新颖的归纳图卷积网络框架InducT-GCN(InducTive Graph Convolutional Networks for Text classification),用于无额外资源和有限训练数据情况下的归纳图文本分类,通过仅基于训练文档的统计信息构建图并在测试期间进行单向GCN传播,与传统感性学习模型相比,InducT-GCN在五个文本分类基准测试中表现出更好的性能。
Jun, 2022
本文介绍文本分类的方法,重点讨论基于图神经网络的文本分类,分别从构造机制和学习过程等方面对文本分类方法进行详细介绍,并涵盖数据集,评估指标和实验设计等方面,通过对公开基准测试的综合比较评估和评估指标的优缺点比较,总结出各个技术的优缺点。
Apr, 2023
本研究解决了文本分类中的图神经网络应用问题,提出了一种新的判别图的构建方法和模型。通过将训练语料分割为根据标签形成的无连接子图,并利用点互信息加权边缘,重构文本分类任务为行走分类任务,从而提供了理论支持。
Oct, 2024