BriefGPT.xyz
大模型
Ask
alpha
关键词
ogb benchmark
搜索结果 - 1
图混合专家:使用显式多样性建模在大规模图上学习
该论文引入了 Mixture-of-Expert(MoE)思想到图神经网络中,提出了一种新的 Graph Mixture of Expert(GMoE)模型,用于同时建模多样的训练图结构,通过在 OGB 基准测试中表现的提升来验证 GMoE
→
PDF
a year ago
Prev
Next