BriefGPT.xyz
Ask
alpha
关键词
finite width graph neural networks
搜索结果 - 1
MM
使用 ReLU 激活函数的图神经网络初始化和架构选择原则
本文提出了三个初始化和架构选择原则的验证,在有限宽度图神经网络(GNN)和 ReLU 激活下,通过证明得出使用 He-initialization,并在初始时使用残差聚合运算符和残差连接的实践可以显著提高深度 ReLU GNN 在各种任务上
→
PDF
a year ago
Prev
Next