Apr, 2023

图混合专家:使用显式多样性建模在大规模图上学习

TL;DR该论文引入了 Mixture-of-Expert(MoE)思想到图神经网络中,提出了一种新的 Graph Mixture of Expert(GMoE)模型,用于同时建模多样的训练图结构,通过在 OGB 基准测试中表现的提升来验证 GMoE 的有效性。