Dec, 2023

GraphGPT:使用生成式预训练 Transformer 进行图学习

TL;DR我们介绍了一种名为 GraphGPT 的自我监督建模方法,该方法通过将图或抽样子图转化为表示节点、边和属性的可逆令牌序列,并使用欧拉路径优先进行预训练,最后通过监督学习任务进行微调,该模型在大规模分子数据集 PCQM4Mv2、蛋白质相互作用数据集 ogbl-ppa 以及开放图基准数据集 ogbn-proteins 上取得了接近或优于现有方法的结果,并且能够训练超过 400M 个参数的 GraphGPT,具有一致提升的性能,这超出了 GNN 和先前的图变换模型的能力。