Jun, 2024

图神经网络疯狂去派对

TL;DR通过梯度下降来学习分布式算法的消息传递图神经网络(GNNs),当节点在推断期间异步更新时,会产生灾难性的错误预测。本研究探讨了这种失败在常见GNN架构中的原因,并将“隐式定义”GNN作为一类架构来证明其对部分异步“hogwild”推断具有鲁棒性,从而适应了异步和分布式优化领域的收敛性保证。然后,我们提出了一种新颖的隐式定义GNN架构,称为能量GNN。我们证明了这种架构在受多智能体系统启发的各种合成任务上胜过了该类中的其他GNN,并在实际数据集上实现了竞争性能。