全球连接神经网络
本文提出 EdgeNet 框架,将现有的图卷积神经网络(GCNNs)和图注意力网络(GATs)统一起来,使得同一问题可以使用不同的 GNN 结构来解决,并且指导和优化各种 GNNs 的性能和实现。
Jan, 2020
本文介绍了一种名为 “HighWay Network” 的新型深度神经网络模型,采用门控单元对信息流进行监控,以实现高效的信息传递,从而克服了训练深度神经网络的问题。
Jul, 2015
本文针对图卷积网络(GCNs)在层数增多时表现下降的问题进行了研究,发现合理训练后更深的模型具有极高的训练准确性,但泛化能力较差。通过分析 GCNs 的泛化能力,本文提出了一种解耦结构,使得 GCNs 既能保留表达能力,又能保证较好的泛化性能。各种合成和真实数据集的实证评估证实了这一理论。
Oct, 2021
该研究提出 Dense Convolutional Network (DenseNet) 模型,使用每一层之前的所有特征图作为输入,解决了梯度消失的问题,促进了特征重用,并在目标识别领域的四个竞争性基准上显着提高了性能效率。
Jan, 2020
我们提出了一种通用的网络架构 GLU-Net,它可以直接应用于所有密集对应的问题,并通过结合全局和局部相关层来同时实现高精度和对大位移的鲁棒性。当使用相同的网络和权重时,此 GLU-Net 在几何和语义匹配以及光流方面都达到了最先进的性能。
Dec, 2019
本文发现目前基于谱图卷积算子的图神经网络(GNNs)存在悬挂动画问题,当模型深度达到悬挂动画极限时,模型将无法响应训练数据且无法学习。为了解决这一问题,我们引入了 GResNet 框架,该框架通过创建广泛连接的高速公路来涉及所有模型层中节点的原始特征或中间表示。我们对多种现有 GNNs 的 GResNet 框架进行了详细研究,并在真实世界基准数据集上进行了广泛的实证实验,证明了新引入的图残差项的有效性和规范保持优势。
Sep, 2019
GND-Nets, a new graph neural network that exploits local and global neighborhood information, is proposed to mitigate the over-smoothing and under-smoothing problems of Graph Convolutional Networks, using a new graph diffusion method called neural diffusions, which integrate neural networks into the conventional linear and nonlinear graph diffusions.
Jan, 2022