Autobahn: 基于自同构的图神经网络
本文提供了对于任何 n 顶点的图 G 及其自同构群 Aut (G),所有可能的 Aut (G) - 等变神经网络的完整特征描述,其层是某些张量乘幂的形式,找到了标准基础下该类张量空间中可学习的线性等变层函数的矩阵生成集。
Jul, 2023
提出了一种名为 Equivariant Subgraph Aggregation Networks(ESAN)的新框架,它可以代表每个图形并将其处理为一个经过适当等变架构处理的子图集合,从而提高了图形信号处理的表现力。
Oct, 2021
本文提出了一种用于任意图的变形器神经网络结构,在注意力机制中使用了邻域连接性,用拉普拉斯特征向量代替位置编码,使用批量归一化层代替层归一化,支持边特征表示。实验表明,该结构的性能优于传统的 transformer 模型。
Dec, 2020
提出了一种新的 Autoregressive Neural TensorNet (ANTN) 架构, 该架构能够准确模拟具有规范化波函数的量子状态的样本,拥有更广泛的表现力和对称性, 并能够应用于科学模拟和机器学习等领域。
Apr, 2023
本文介绍了一种神经动力学系统的符号计算表示理论,旨在研究不同编码下神经自动机的对称性和不变性质,结果表明只有针对等式模式的阶跃函数在重新编码后是不变的,而平均激活水平是不变的。
Feb, 2023
本研究提出自动设计深层 GNN 的方法,其中添加了新型的跳跃连接以促进特征重用和缓解梯度消失问题,并允许进化算法在演化过程中增加 GNN 层数来生成更深的网络,在 Cora、Citeseer、Pubmed 和 PPI 数据集上实验表明,GNNs 的生成结果具有最先进的性能。
Nov, 2020
我们将神经网络的普适逼近定理推广到对于线性表示组不变或等变的映射,以建立一种像网络一样的计算模型,能够在能够逼近任何连续不变 / 等变映射的同时保持不变 / 等变。我们提出了完备的不变 / 等变网络的构造,通过引入中间多项式层,通过 Hilbert 和 Weyl 的定理证明了我们的构造方法。我们提出了适用于 SE(2)群的 “电荷守恒卷积” 模型,并证明其是连续 SE(2)等变信号变换的通用逼近器。
Apr, 2018
图神经网络是一种用于学习图上不变函数的架构。本研究证明了现有方法中存在的不足,并提出了一种更精细化的方法,通过整合目标模式中所有结构的同构计数,实现了更加具有表达能力的架构,而不增加额外的计算复杂度。我们在标准基准数据集上进行了一系列理论和实证验证。
Feb, 2024
本文介绍了一种新型自动图神经网络工作 AutoGEL,该网络在显式建模链接信息的基础上,采用不同 iable Search Algorithm 并提出了一种包含各种设计维度的搜索空间,有效地提高了 AutoGNN 的性能,进而改进了结点分类和图分类任务。
Dec, 2021