图上的强弱专家混合
通过使用一种特殊设计的学生模型(Routing-by-Memory)来解决节点分类任务中的性能问题,该模型是一种专家混合(Mixture-of-Experts),通过鼓励每个专家在隐藏表示空间的某个特定区域进行专门化,实验证明可以在多个数据集上实现更一致的性能。
Jun, 2024
该论文引入了 Mixture-of-Expert(MoE)思想到图神经网络中,提出了一种新的 Graph Mixture of Expert(GMoE)模型,用于同时建模多样的训练图结构,通过在 OGB 基准测试中表现的提升来验证 GMoE 的有效性。
Apr, 2023
本文介绍了一个名为 Meta Weight Graph Neural Network 的模型,该模型可以自适应地构建不同节点的图卷积层来提高图神经网络的表达能力,其通过使用元权重模型来生成自适应图卷积来提高节点表示,并在真实和合成基准测试中进行了广泛的实验证明了其在处理具有不同分布的图数据方面具有出色的表现。
Mar, 2022
图神经网络 (GNNs) 在各种图结构模式下的节点分类任务中已被证明非常有效。然而,现实世界的图通常展现出复杂的同构和异构模式的混合,使用统一的全局过滤器方法则不够优化。为解决这个问题,我们引入了一种新颖的 GNN 框架 Node-MoE,使用专家混合来自适应地选择不同节点的适当过滤器。广泛的实验证明了 Node-MoE 在同构和异构图上的有效性。
Jun, 2024
GraphMETRO 是一种新颖的框架,利用混合专家模型来增强图神经网络在节点和图级任务中对复杂分布变化的泛化能力,并在合成和真实数据集上的实验证明了其卓越性能和解释性。
Dec, 2023
本研究提出了一种简单的 Mixture of Experts 模型,在大规模、多标签的预测任务中表现良好,适用于数据集分布不均、单个 GPU 存储不下的情形,并支持并行训练和统一的特征嵌入空间。该模型的表现表明可以用来训练更大的深度学习模型,拥有更强的处理能力。
Apr, 2017
使用混合图 (MoG) 技术对图神经网络进行图稀疏化处理,针对每个节点的特定环境选择合适的稀疏方案,并在 Grassmann 流形上生成最优稀疏图,从而实现更高的稀疏度水平、GNN 推理速度的提升,并改善 “顶级学生” GNN 在性能上的表现。
May, 2024
使用 GNN-MoCE 架构,通过 Mixture of Collaborative Experts (MoCE) 作为预测器,在解决专家池同质性问题和专家组决策支配困境的同时增强了专家多样性,从而在 24 个 MPP 数据集上表现出比传统方法更卓越的性能,特别是在数据限制或极度不平衡的任务中。
Dec, 2023
本文比较了多层图神经网络和一种被称为图增强多层感知器的简化替代品之间的表现,其中后者首先通过图上的某些多跳算子增强节点特征,然后以节点方式应用 MLP;并证明了 GA-MLP 具备适当算子的情况下,能像 Weifeiler-Lehman(WL)测试一样,理论和数值上能够区分几乎所有非同构图,但是 GA-MLP 与 GNN 之间在表达能力方面的差距随着深度呈指数增长,并且 GA-MLP 不能计算属性步行的数量,表明 GA-MLP 受其操作符族的选择限制比拥有更高学习灵活性的 GNN 更为受限,这在社区检测实验中也得到了证明。
Oct, 2020