- 具有消息传递保证的图简缩化
通过提出一种适用于粗化图的新的消息传递操作,我们在合成和真实数据上进行节点分类任务,并观察到与在粗化图上执行简单的消息传递相比,取得了改进的结果。
- 图神经网络的光谱贪婪子样本集
本研究通过选择基于谱嵌入的群体图 (即节点周围的邻域子图) 来避免图节点之间的相互依赖问题,将图核心集选择问题分解为广泛分布的群体图的粗略选择和多样化其拓扑结构的精确选择两个阶段,并设计了一种贪婪算法以近似优化这两个目标。实验结果表明,该方 - 多视图图结构表示学习:基于图粗化
通过实验分析,我们探索将图结构作为整体像节点一样进行学习的可行性,并基于我们的发现,提出了一种基于图粗化的多视图图结构表示学习模型(MSLgo)来进行图分类。我们通过层次启发式图粗化压缩循环和团,并通过精心设计的约束进行限制,从而构建了粗化 - 图重构的综合调研:稀疏化、粗化和浓缩
图简化技术是一种应对大型图数据集复杂性和规模的有效方法,本调查研究对图稀疏化、图粗化和图凝聚等简化方法进行了全面概述,并阐述了它们在不同场景中的实际应用,为该领域的发展提供了技术综述和重要研究方向。
- 在低数据约束下探究图分类技术:一项综合研究
本综述论文简要概述了关于图数据增强和小样本学习的最新研究,涵盖了包括节点和边的扰动、图粗化和图生成在内的图数据增强技术,以及元学习和模型无关元学习等小样本学习的最新发展。该论文深入探讨了这些领域,并进一步对其进行细分分类,同时还概述了基于规 - DGC: 使用图分块训练具有时空非均匀性的动态图
提出了 DGC,一个分布式的 DGNN 训练系统,通过新的图分区方法将动态图分解成具有适度训练工作量和少量互连的子图,实现了比我们实验室中最先进技术快 1.25 倍至 7.52 倍的加速。该算法基于图粗化,能够在大型图上快速运行,并通过提出 - ICMLGromov-Wasserstein 几何形态下的谱保持图粗化
该研究从不同的角度研究了图的加粗技术,并提出了一种保持图距离的方法,该方法使用 Gromov-Wasserstein(GW)距离,并采用加权核 K-means 方法最小化两个图的距离及其加粗版本之间的差异,以此来改进现有的谱保存方法。研究还 - 图神经网络的从局部到全局视角
该论文从局部到全局的角度,介绍了图神经网络的两种类型 —— 局部信息传递神经网络和全局图变换器,并对不变图网络的收敛特性进行了研究;连接局部信息传递神经网络和全局图变换器;使用局部信息传递神经网络实现了图缩减等全局建模中常用的子程序。
- KDD通过图缩减扩展图神经网络规模
本文提出了一种使用图粗化来实现可扩展 GNN 训练的不同方法,详细介绍了图粗化操作的影响和选择方法,并表明图粗化也可看作一种正则化手段。实证结果表明,简单地应用成熟的粗化方法,可以将节点数降低到原来的十分之一而不会导致分类精度的明显下降。
- ICML基于粗化的更快图嵌入
对于大规模图形数据,我们提出了一种优化的图粗化方法,基于 Schur 补,可在节省时间的同时保证了嵌入的准确性。
- ICML关于图分类网络、数据集和基准的研究
研究了图分类相应的深层网络中对初始值非常敏感,实验表明即使是结构单一的 MLP、单层 GCN 和固定权重的 GCN 也可以与最先进的模型竞争
- 光谱保留图稀疏化和粗化的统一框架
提供了同时稀疏化和粗化图形的统一框架,其原理基于图拉普拉斯算子的物理解释,并使用一种无偏处理程序来减少图形并保留其大规模结构。
- MILE: 可扩展图嵌入的多级框架
本文提出了 MultI-Level Embedding (MILE) 框架,使用混合匹配技术将大型图形渐进细化为规模较小的图形,然后使用现有图嵌入方法对最粗略的图形进行嵌入,并通过学习的图卷积神经网络将嵌入细化到原始图形上,以实现图形嵌入在 - CVPR图卷积神经网络中的动态边缘滤波器
本文提出了一种基于图卷积算子的深度神经网络模型,通过条件化过滤权值,在任意图上实现图分类,并在点云分类任务中创造新的最优表现