本文探讨了如何在图形分类中利用图卷积网络(graph convolutional networks)进行节点嵌入(node embeddings)、不可区分形式学习(representation learning)和不可区分形式学习(differentiable graph coarsening),并且没有牺牲稀疏性,为未来基于图形的神经网络研究指出了重要方向。
Nov, 2018
本文提出了一种使用图粗化来实现可扩展 GNN 训练的不同方法,详细介绍了图粗化操作的影响和选择方法,并表明图粗化也可看作一种正则化手段。实证结果表明,简单地应用成熟的粗化方法,可以将节点数降低到原来的十分之一而不会导致分类精度的明显下降。
Jun, 2021
本文探讨了粗化对一般图的光谱特性的影响,发现主本征值和本征空间在新旧图拉普拉斯矩阵之间成立。研究结果可以应用于利用粗化的学习算法,尤其是在谱聚类中,该现象缺乏正式的验证。
Feb, 2018
通过提出一种适用于粗化图的新的消息传递操作,我们在合成和真实数据上进行节点分类任务,并观察到与在粗化图上执行简单的消息传递相比,取得了改进的结果。
May, 2024
本文介绍一种学习图嵌入的简单、有效方法,通过密集向量表示来近似节点之间的距离,以反映用户定义的图距离度量,避免了直接在图结构上进行操作引起的低效性,证明该方法在语义相似性和词义消歧任务上的表现比其他图嵌入方法更优秀,同时在 WordNet 和两个知识库图上进行了评估。
Jun, 2019
论文提出了一种基于图神经网络的异构超图表示学习框架,利用小波基于局部超图卷积来表征多种非成对关系,并通过广泛的实验表明该方法优于其他方法,在垃圾邮件检测等任务中也有显著的优势。
Oct, 2020
提供了同时稀疏化和粗化图形的统一框架,其原理基于图拉普拉斯算子的物理解释,并使用一种无偏处理程序来减少图形并保留其大规模结构。
Feb, 2019
该研究使用基于矩阵草图的方法来解决在大规模图分析中传统方法遇到的挑战,尤其是无监督学习的社区结构划分问题,实验表明该方法在分配内存中可以获得出色的聚类效果,同时提高了聚类速度。
Jul, 2020
本文研究了在有向和无向图上进行图嵌入技术的基础方法和存在的问题,提出了一个新的方法叫做转置接近度,以解决现有方法无法保持有向图外度分布和无向图优化目标冲突的问题,并且展示了该方法在各种图嵌入算法中的高效性和优越性。
May, 2019
提出了一种基于拓扑感知的图粗化与持续学习框架,该框架通过将先前任务的信息存储为精简图,在每个时间段通过与新图结合并对齐共享节点来扩展精简图,并通过缩减过程进行稳定大小的 “缩小”,实验证明了该框架在三个真实数据集上使用不同的骨干 GNN 模型的有效性。
Jan, 2024