本文介绍了一种基于图卷积神经网络的文本分类算法 (Text GCN),该算法利用单一的文本图构建并联合学习词和文本的表征,经实验表明,将该算法应用于多个基准数据集后,在无需外部词嵌入和预先知识的情况下,文本 GCN 仍可优于现有的文本分类方法。
Sep, 2018
本文提出了一种异构图卷积网络建模方法 HeteGCN,结合了 predictive text embedding (PTE) 和 TextGCN 的优点用于文本分类,以解决现有方法预测能力、可扩展性和归纳能力的局限性。通过使用不同的图层在一个 HeteGCN 架构中学习特征嵌入并派生文档嵌入,将 TextGCN 简化为几个 HeteGCN 模型,从而简化了模型参数,以提高性能和训练速度。实验结果表明所提出的方法在小的标注训练集方案下有效。
Aug, 2020
本文分析了图卷积网络(GCN)在文本分类中的节点和边嵌入方式以及学习机制的影响,并在不同文本分类基准下得出了有用的结论。
Mar, 2022
本研究提出了一种新颖的归纳图卷积网络框架 InducT-GCN(InducTive Graph Convolutional Networks for Text classification),用于无额外资源和有限训练数据情况下的归纳图文本分类,通过仅基于训练文档的统计信息构建图并在测试期间进行单向 GCN 传播,与传统感性学习模型相比,InducT-GCN 在五个文本分类基准测试中表现出更好的性能。
Jun, 2022
提出了一种新的基于图神经网络的模型,通过全局参数共享建立每个输入文本的图形而不是整个语料库的单个图形,这种方法支持在线测试,同时提取更多的本地特征和显著降低边缘数量以及内存消耗,在多个文本分类数据集上性能优于现有模型。
Oct, 2019
本研究通过图卷积网络(GCN)对图进行编码,引入了一种新的密集连接策略,提出了一种新型的密集连通图卷积网络(DCGCN)来集成本地和非本地特征,以更好地学习图的结构表示,并在 AMR-to-text 生成和基于语法的神经机器翻译上明显优于现有的神经模型。
Aug, 2019
提出了一种使用连续图卷积网络的新方法来推断在线文本数据的模型,称为 ContGCN,采用了全标记 - 任意文档范式来动态更新每批处理的文档 - 标记图,并使用自我监督对比学习目标来更新模型。在华为公共舆情分析系统上进行的 3 个月 A/B 测试表明,ContGCN 相比现有的方法提高了 8.86%的性能。
Apr, 2023
基于广义聚合网络和拓扑自适应图卷积网络的混合方法,适用于顺序数据和静态数据的类型,在节点和图分类中都有良好的表现。
Mar, 2024
图分类是一项重要的图结构数据学习任务,我们提出了一种新颖的 Tensor-view 拓扑图神经网络 (TTG-NN),利用持久同调、图卷积和张量运算构建了一种简单而有效的拓扑深度学习方法,能够同时捕捉局部和全局层面上的张量表示和图结构信息。在实际数据实验中,TTG-NN 在各种图基准数据上表现优于其他 20 种最先进的方法。
Jan, 2024
本文提出了 VGCN-BERT 模型,结合 BERT 和 Vocabulary Graph Convolutional Networks (VGCN) 的能力进行文本分类,实验证明其在多个文本分类数据集上性能优于单独使用 BERT 和 GCN,并且比以前的研究效果更好。
Apr, 2020