图神经网络如何帮助文档检索:以 CORD19 为例,涉及概念地图生成的案例研究
我们提出了一种名为 GNN-Ret 的新型检索方法,利用图神经网络(GNNs)考虑段落间的相关性来增强检索过程,并通过 RGNN-Ret 处理多跳推理问题,从而提高问题回答准确率。实验结果表明,GNN-Ret 相比多次查询的强基线方法在单次查询 LLM 的问题回答准确率上更高,而 RGNN-Ret 进一步提高了准确率,在 2WikiMQA 数据集上的准确率提高了 10.4%。
Jun, 2024
本文研究了基于图神经网络的文本分类任务,提出了一种新的分层图神经网络模型(HieGNN),其在词级别、句子级别和文档级别分别提取相应的信息。实验结果表明与几个基准方法相比,我们的模型能够从样本中获得更多有用的分类信息。
Sep, 2022
本文介绍了一种名为 Graph Topic Model (GTM) 的基于图形神经网络 (GNNs) 的神经主题模型,通过信息交互捕捉图形节点之间的关系,将文档和词汇转化成为图中的节点,并根据共现性连接,通过图卷积汇聚邻居节点信息从而通过共享单词在文档之间建立关系,扩充了文档的主题的表达方式。研究者还基于三个数据集开展了广泛的实验,其结果证明了这种方法的有效性。
Sep, 2020
本文提出一种图检索机制叫做 GraphRetrieval 通过检索训练图来加强现有的图神经网络模型,利用自注意力的适配器从被检索图中获取有益信息并消除噪声,实现了对现有 GNN 模型效果的显著提升。
Jun, 2022
本文提出了一种有效的框架,称为语言模型图神经网络 (LM-GNN),通过分阶段的 BERT 模型微调来结合异构图结构与文本,以便在多项监督学习任务中实现节点和边分类以及链接预测,并在不同的数据集上评估了这个框架且在一个亚马逊搜索 - 购买 - 产品的应用中提供了有竞争力的结果。
Jun, 2022
本文研究了文档结构在学习任意文档语料库中概念本体关系方面的作用,所采用的基于超类发现和可解释性的方法,比独立的 R-GCN 模型准确率高 15 个百分点。
Apr, 2021
本研究对基于图的文本表示方法在文本分类中的应用进行了广泛的实证研究,探索了其实际影响和开放挑战。在短文档和长文档数据集上比较了几个 GNN 架构和 BERT 的性能,并发现文本输入特征和领域高度相关,尽管 BERT 表现出色,但在处理短文本时存在收敛困难,而图方法特别有利于处理较长文本。
May, 2023
本文提出了两个关键性贡献:首先是演示了图神经网络如何训练并嵌入向量空间,以便有效地进行相似性推理;其次是提出了一种新的图匹配网络模型,通过新的跨图注意力匹配机制,在一对图之间共同推理,计算它们之间的相似度得分。在不同领域的实验分析表明,本文提出的模型不仅能够在相似性学习的上下文中利用结构,而且能够优于针对此类问题精心设计的基线系统。
Apr, 2019
本文介绍了一种基于图神经网络的新方法 TextING,可用于词嵌入和归纳文本分类,并在四个基准数据集上进行了实验,取得了超过现有文本分类方法的优异成果。
Apr, 2020