学习图神经网络的离散结构
该研究提出了一种学习卷积神经网络用于任意图形的框架,以提取本地连接区域。使用公认的基准数据集,我们证明了学习特征表示与最先进的图形核心竞争,并且计算效率很高。
May, 2016
本文研究机器学习领域的图半监督学习,提出了基于图卷积网络的深度学习方法,解决了图卷积网络机制不清晰及需要大量标注数据的问题,并针对浅层结构的限制提出了弱监督训练的方法。经过广泛实验验证,研究结果具有实际应用价值。
Jan, 2018
本文提出一种贝叶斯图卷积神经网络的框架,用于在图结构数据上进行节点分类和矩阵补全任务,并采用一种迭代学习算法来提高模型性能,并在试验中展示了当训练数据少时,该方法提供更好的性能。
Nov, 2018
通过消除GCN中的不必要的非线性和权重矩阵,我们提出了一种线性模型,它对应于一个固定的低通滤波器,然后是一个线性分类器。 在许多下游应用中,我们的实验评估表明这种简化并不会对精度产生负面影响。 此外,由于我们的模型简化减少了计算量,因此我们的模型在更大的数据集上具有可扩展性,并且具有更快的推理速度。
Feb, 2019
本研究提出了一种高效的图形卷积网络(GCN)训练框架L-GCN,该框架通过在训练期间解耦功能聚合和功能转换,大大降低了时间和内存复杂度,并提出了L²-GCN,用于每个层学习控制器,可以自动调整每个层的训练时期。实验表明,在不依赖于数据集大小的一致内存使用情况下,L-GCN比现有技术快至少一个数量级,同时保持可比的预测性能。
Mar, 2020
本文介绍了一种二进制图卷积神经网络(Bi-GCN),它将网络参数和输入节点特征进行二元化,并将原始矩阵乘法改为二进制运算以加速计算,并使用一种新的梯度逼近反向传播方法来训练我们的Bi-GCN。实验表明,与全精度基线相比,Bi-GCN在节省内存资源方面平均可以减少约30倍,并平均加速推理速度约47倍,并且该二进制方法还可以轻松应用于其他GNNs。
Oct, 2020
本研究旨在通过研究梯度下降训练中神经网络中的特征学习理论中图卷积的作用,提供了两层图卷积网络与两层卷积神经网络之间的信号学习和噪声记忆的不同表征,发现图卷积显着增强了对手CNN的良性过拟合的范围,并且在梯度下降训练后, GNNs和MLPs在特征学习和泛化能力方面存在重大差异,这一结论在我们的实证模拟中得到了进一步证实。
Jun, 2023
通过任务无关的图结构损失函数,我们提出了一种名为Graph structure Prompt Learning(GPL)的新型图结构预测学习方法,能够提高图神经网络(GNNs)的训练效果,进而有效学习内在的图特征,大幅提升节点分类、图分类和边预测任务的性能。
Jul, 2024