图卷积网络文本分类
提出了一种新的基于图神经网络的模型,通过全局参数共享建立每个输入文本的图形而不是整个语料库的单个图形,这种方法支持在线测试,同时提取更多的本地特征和显著降低边缘数量以及内存消耗,在多个文本分类数据集上性能优于现有模型。
Oct, 2019
本文提出了VGCN-BERT模型,结合BERT和Vocabulary Graph Convolutional Networks(VGCN)的能力进行文本分类,实验证明其在多个文本分类数据集上性能优于单独使用BERT和GCN,并且比以前的研究效果更好。
Apr, 2020
本文介绍了一种基于图神经网络的新方法TextING,可用于词嵌入和归纳文本分类,并在四个基准数据集上进行了实验,取得了超过现有文本分类方法的优异成果。
Apr, 2020
本文提出了一种异构图卷积网络建模方法HeteGCN,结合了predictive text embedding (PTE) 和 TextGCN的优点用于文本分类,以解决现有方法预测能力、可扩展性和归纳能力的局限性。通过使用不同的图层在一个HeteGCN架构中学习特征嵌入并派生文档嵌入,将TextGCN简化为几个HeteGCN模型,从而简化了模型参数,以提高性能和训练速度。实验结果表明所提出的方法在小的标注训练集方案下有效。
Aug, 2020
本文提出了一种名为ME-GCN(多维边增强图卷积网络)的模型用于半监督文本分类,该模型能够利用图的丰富边缘信息,通过将边特征作为多流信号进行单独图卷积操作,达到对整个文本数据集较好的分类效果。
Apr, 2022
本研究提出了一种新颖的归纳图卷积网络框架InducT-GCN(InducTive Graph Convolutional Networks for Text classification),用于无额外资源和有限训练数据情况下的归纳图文本分类,通过仅基于训练文档的统计信息构建图并在测试期间进行单向GCN传播,与传统感性学习模型相比,InducT-GCN在五个文本分类基准测试中表现出更好的性能。
Jun, 2022
提出了一种使用连续图卷积网络的新方法来推断在线文本数据的模型,称为ContGCN,采用了全标记-任意文档范式来动态更新每批处理的文档-标记图,并使用自我监督对比学习目标来更新模型。在华为公共舆情分析系统上进行的3个月A/B测试表明,ContGCN相比现有的方法提高了8.86%的性能。
Apr, 2023
本文介绍文本分类的方法,重点讨论基于图神经网络的文本分类,分别从构造机制和学习过程等方面对文本分类方法进行详细介绍,并涵盖数据集,评估指标和实验设计等方面,通过对公开基准测试的综合比较评估和评估指标的优缺点比较,总结出各个技术的优缺点。
Apr, 2023
提出了一种基于词图的图卷积神经网络模型,能够以归纳的方式完成对于预定义图之外的文档的分类任务,该模型利用词共现信息形成词图,同时融入了文献引用关系的全局语义依赖信息,通过实验验证,该模型在分类任务中表现出良好的性能和高效率。
May, 2023