自适应采样快速图表示学习
本文提出了并行化技术,为图采样GCN提供卓越的可扩展性性能,在不妥协准确性的情况下,在非常大的图上实现了优秀的性能。具体地,我们保证了GCN的高效训练,并在计算和通信方面节约了数量级的开销,同时,我们的并行图嵌入在可扩展性、效率和准确性方面优于现有的方法。
Oct, 2018
通过消除GCN中的不必要的非线性和权重矩阵,我们提出了一种线性模型,它对应于一个固定的低通滤波器,然后是一个线性分类器。 在许多下游应用中,我们的实验评估表明这种简化并不会对精度产生负面影响。 此外,由于我们的模型简化减少了计算量,因此我们的模型在更大的数据集上具有可扩展性,并且具有更快的推理速度。
Feb, 2019
GraphSAINT是一种基于图采样的归纳学习方法,通过采样训练图形而不是节点或边来构建小批量,以提高训练效率和准确性;在五个大图上表现出优越的性能,实现了PPI(0.995)和Reddit(0.970)的新的最先进的F1分数。
Jul, 2019
本文针对训练大型图(large graph)时计算量和内存消耗高的问题,提出了一种新的采样算法(LADIES),相比于已有采样算法在时间和内存成本上有更好的表现,并且由于其随机性,具有比原始 full-batch GCN 更好的泛化精度。
Nov, 2019
本研究提出了一种高效的图形卷积网络(GCN)训练框架L-GCN,该框架通过在训练期间解耦功能聚合和功能转换,大大降低了时间和内存复杂度,并提出了L²-GCN,用于每个层学习控制器,可以自动调整每个层的训练时期。实验表明,在不依赖于数据集大小的一致内存使用情况下,L-GCN比现有技术快至少一个数量级,同时保持可比的预测性能。
Mar, 2020
本文提出了一种新型 GCNs 模型: 自适应多通道图卷积网络 (AM-GCN),以更好地融合和提取节点特征和拓扑结构之间的深度相关信息,并在半监督分类任务上取得了明显的精度提升。
Jul, 2020
本研究提出一种名为BNS-GCN的简单而有效的方法,采用随机边界节点采样,提高了分布式GCN训练的吞吐量16.2倍,减少了内存使用量高达58%,同时保持全图精度的稳定性,为实现大规模GCN训练开辟了一条新的途径。
Mar, 2022