BriefGPT.xyz
Ask
alpha
关键词
self-attentional layers
搜索结果 - 2
基于模 motif 的注意力机制的图卷称神经网络
本文提出了一种新颖的框架,可以在任意图上学习空间和关注卷积神经网络,通过子图归一化和自我关注层,可以显著提高传统图内核和现有深度模型的图分类基准。
PDF
6 years ago
ICLR
图注意力网络
本文提出新颖的神经网络结构图注意力网络(GATs),利用掩码的自我关注层处理图结构化数据的缺点,有效提出解决谱学派图神经网络中的几个关键挑战的方法,并在四个数据集上取得了最先进的结果。
PDF
7 years ago
Prev
Next