Feb, 2024

图值 $K$ 个文字:使用纯 Transformer 对图进行欧几里得化

TL;DR我们引入了 GraphsGPT,该模型具有将非欧几里德图转换为学习可表示为欧几里德空间中可学习图词的 Graph2Seq 编码器以及从图词重构原始图以确保信息等价性的 GraphGPT 解码器。我们对 1 亿个分子进行预训练,得出了一些有趣的发现:(1) 预训练的 Graph2Seq 在图表示学习方面表现出色,在 8/9 个图分类和回归任务上取得了最先进的结果。(2) 预训练的 GraphGPT 作为一种强大的图生成器,它能够进行无条件和有条件的图生成。(3) Graph2Seq+GraphGPT 在欧几里德空间中实现了有效的图混合,克服了以前已知的非欧几里德挑战。(4) 我们提出的新型边缘中心 GPT 预训练任务在图领域中非常有效,强调了它在表示和生成方面的成功。