使用文本级图神经网络进行故事点工作量估算
本文提出了一个用于估计敏捷软件项目问题文本输入中的用户故事点的工具 HeteroSP,该工具通过构建异构图神经网络模型支持快速文本表示学习,最终在估计用户故事点方面优于基线模型,并且获得了较快的运行时间效率。
Jun, 2022
提出了一种新的基于图神经网络的模型,通过全局参数共享建立每个输入文本的图形而不是整个语料库的单个图形,这种方法支持在线测试,同时提取更多的本地特征和显著降低边缘数量以及内存消耗,在多个文本分类数据集上性能优于现有模型。
Oct, 2019
本文研究了基于图神经网络的文本分类任务,提出了一种新的分层图神经网络模型(HieGNN),其在词级别、句子级别和文档级别分别提取相应的信息。实验结果表明与几个基准方法相比,我们的模型能够从样本中获得更多有用的分类信息。
Sep, 2022
本研究介绍了一种创新的文本摘要方法,利用图神经网络(GNNs)和命名实体识别(NER)系统的能力,以提高摘要的效率和内容的相关性,为处理信息饱和世界中日益增长的文本数据量提供了一个有希望的方向。
Feb, 2024
本文介绍了一种基于图神经网络的新方法 TextING,可用于词嵌入和归纳文本分类,并在四个基准数据集上进行了实验,取得了超过现有文本分类方法的优异成果。
Apr, 2020
本文介绍文本分类的方法,重点讨论基于图神经网络的文本分类,分别从构造机制和学习过程等方面对文本分类方法进行详细介绍,并涵盖数据集,评估指标和实验设计等方面,通过对公开基准测试的综合比较评估和评估指标的优缺点比较,总结出各个技术的优缺点。
Apr, 2023
本文提出了基于图神经网络(GNN)的抽取式摘要模型,并整合了深度神经主题模型(NTM)来发现潜在主题,从而提供句子选择的文档级特征,实验结果表明,我们的模型在 CNN/DM 和 NYT 数据集上取得了最先进的结果,在由较长文档组成的科学论文数据集上也明显优于现有方法,进一步研究表明,主题信息可以帮助模型从整个文档中预先选择凸显内容,因此能够有效地摘要长文档。
Oct, 2020
本文提出了一种有效的框架,称为语言模型图神经网络 (LM-GNN),通过分阶段的 BERT 模型微调来结合异构图结构与文本,以便在多项监督学习任务中实现节点和边分类以及链接预测,并在不同的数据集上评估了这个框架且在一个亚马逊搜索 - 购买 - 产品的应用中提供了有竞争力的结果。
Jun, 2022
本文介绍了一种名为 Graph Topic Model (GTM) 的基于图形神经网络 (GNNs) 的神经主题模型,通过信息交互捕捉图形节点之间的关系,将文档和词汇转化成为图中的节点,并根据共现性连接,通过图卷积汇聚邻居节点信息从而通过共享单词在文档之间建立关系,扩充了文档的主题的表达方式。研究者还基于三个数据集开展了广泛的实验,其结果证明了这种方法的有效性。
Sep, 2020
本研究综述了基于图形神经网络在自然语言处理中的应用,并提出了一个新的分类(基于图构建、图表示学习和基于图的编码器 - 解码器模型),同时介绍了许多利用 GNN 的 NLP 应用程序,并总结了相应的基准数据集、评估指标和开源代码;最后,讨论了利用 GNN 进行 NLP 的各种未解决问题以及未来的研究方向。
Jun, 2021