May, 2021
GraphFormers: 融合GNN和Transformer的文本图卷积神经网络表示学习
GraphFormers: GNN-nested Language Models for Linked Text Representation
TL;DR本文提出了一种基于文本图的表示学习方法GraphFormers,该方法将语言模型的Transformer块与图神经网络嵌套在一起,将文本编码和图聚合融合到迭代的工作流程中,从全局视角准确地理解每个节点的语义。通过在三个大规模基准数据集上的广泛评估,GraphFormers比SOTA基准模型具有相当的运行效率。