Jul, 2024

GraphFM:一种可扩展的多图预训练框架

TL;DR多图多任务预训练方法(GraphFM)通过将特定领域的特征压缩到一个共同的潜空间,并在不同领域的数据上进行扩展,提高了通用模型的泛化能力。通过对152个不同图数据集进行预训练,并根据跨多个领域的数据构建扩展规律,该方法证明了在真实和合成图上进行多图预训练可以显著减轻当前图训练方法的负担,创建一种能在广泛数据集和任务中竞争的单一通用模型。