Jul, 2024
通过在工业规模数据上进行预训练,实现在不同图和任务之间的图转换器的泛化
Generalizing Graph Transformers Across Diverse Graphs and Tasks via
Pre-Training on Industrial-Scale Data
TL;DR我们提出了一个名为PGT(Pre-trained Graph Transformer)的可扩展的基于Transformer的图预训练框架,能够在工业场景中处理数十亿节点的网页规模图,具有归纳能力,适用于未见过的新节点和新图,并在真实世界的网页规模图上进行了广泛的实验,同时在公共数据集上取得了最先进的性能,具有可伸缩性和效率。