ICMLAug, 2022
从层状结构和神经切向核的角度看图卷积网络
Graph Convolutional Networks from the Perspective of Sheaves and the Neural Tangent Kernel
Thomas Gebhart
TL;DR本文研究了 sheaf 卷积网络的神经切向核,通过将函数分解为由图形决定的前向扩散过程和节点激活对输出层的复合效果所确定的两部分,提出了一种参数化方法以拟合核函数。
Abstract
graph convolutional networks are a popular class of deep neural network
algorithms which have shown success in a number of relational learning tasks.
Despite their success, →
graph convolutional networksneural tangent kernelsheaf convolutional networkstopological generalizationrelational learning
发现论文,激发创造
Sheaf 神经网络
本文提出了一种基于 sheaf Laplacian 的 sheaf 神经网络,该网络通过泛化已有的 graph convolutional networks 模型中的扩散操作,提供了一种 proper generalization 的方法,以适用于节点间关系非恒定、非对称、不同维度的领域。研究结果表明,在节点之间关系非对称且带符号的领域,sheaf 神经网络可以优于 graph convolutional networks。
Dec, 2020
神经束扩散:GNN 中异质性和过度平滑的拓扑视角
本文探讨细胞鞘理论在图神经网络研究中的应用,研究表明图的基础几何结构与 GNN 在异质性场景下的过度平滑行为有深刻关联。通过学习来自数据的 sheaf,可以获得具有竞争力的表现。
Feb, 2022
具有连接拉普拉斯算子的层雪峰神经网络
本文提出了一种利用黎曼几何计算切空间之间最优对齐的新方法来计算 Sheaf Neural Network(SNN)的方法,该方法在与之前的 SNN 模型相比具有更少的计算开销,为代数拓扑和微分几何之间的有趣联系提供了一个有意义的构架。
Jun, 2022
图神经网络中基于几何原理的连接
本文提出应该将几何图形应用作几何深度学习创新的主要推动力量,并介绍了一种称为仿射跳跃连接的新型构建块,该构建块由完全连接层与任何图卷积算子组合而成,证明其可以显著提高图分类等任务的性能。
Apr, 2020
神经切向核的归纳偏置
本研究分析了神经网络中梯度下降法的学习动态,发现学习过程受一个称为神经切向核的初始化方式所掌控,比较了该核与其他类似结构的核函数的平滑性、逼近性和稳定性等属性,并考察了卷积网络在图像变形下的稳定性。
May, 2019