May, 2021

GraphFormers: 融合 GNN 和 Transformer 的文本图卷积神经网络表示学习

TL;DR本文提出了一种基于文本图的表示学习方法 GraphFormers,该方法将语言模型的 Transformer 块与图神经网络嵌套在一起,将文本编码和图聚合融合到迭代的工作流程中,从全局视角准确地理解每个节点的语义。通过在三个大规模基准数据集上的广泛评估,GraphFormers 比 SOTA 基准模型具有相当的运行效率。