图神经网络基准测试
该研究论文通过对GNNs的计算效率进行探讨,提供了该领域的回顾,包括对GNN的基本概念的简短教程以及不同算法变体的多个阶段中进行的操作的总结; 同时,提供了对当前软件和硬件加速方案的深入分析,并提出了一个面向硬件和软件的、图形感知和通信为中心的GNN加速器的愿景。
Sep, 2020
本研究设计了一套标准、可重复的基准测试设置,并使用多个小型和中型数据集以及7个不同模型对其进行评估,结果表明模型层数的增加并不总是能提高性能,结合节点2vec和拉普拉斯特征向量的数据增强技术可以有效提高分类任务表现。
Dec, 2020
本研究提供了第一个公平、可重复的基准测试,重点研究了训练深度图神经网络中的技巧,并利用该测试在数十个代表性图数据集上进行了全面评估,证明了初始连接、标识映射、分组和批量归一化的有机组合实现了深度GNN在大型数据集上的最新成果。
Aug, 2021
本研究提出了一个名为GraphWorld的基于人工合成图形的GNN模型基准测试方法,可以为GNN提供可调、可伸缩和易于使用的基准测试环境,并可以随机生成大量统计差异的数据集,经过实验表明,它可以揭示出传统基准测试中未观测到的模型之间的比较,同时还能探究图形属性与任务性能测量之间的关系。
Feb, 2022
通过对多元稀疏回归分析来从元数据中派生得到一系列显著的数据属性,本文提出了一种基于元数据的方法,分析了图神经网络对图数据属性的敏感性,并通过理论分析和控制实验验证了平衡度分布与GNN性能之间的关系,从而验证了该基于元数据的方法在识别GNN关键数据属性方面的有效性。
Oct, 2023
在本研究中,我们对三种经典的图神经网络模型(GCN、GAT和GraphSAGE)与图转换器(GTs)进行了全面的实证分析,发现之前对GTs的声称过于夸大,而稍作超参数调整后,这些经典GNN模型在17个多样化数据集中达到了最新GTs的性能水平甚至超过。此外,我们还进行了详细的消融研究,探究了归一化、丢弃、残差连接、网络深度和知识传递模式等各种GNN配置对节点分类性能的影响。通过我们的研究,我们旨在推动图机器学习领域对实证功效提出更高的标准,鼓励更准确的模型能力比较和评估。
Jun, 2024
最近在图神经网络领域中,频谱图神经网络因其在频域捕捉图信号的特点而受到广泛关注,展示出在特定任务中的有希望的能力。然而,对于评估其频谱特征的系统研究还很少。此观点论文通过对超过30个包含27个相应滤波器的频谱图神经网络进行广泛的基准测试,分析和分类这些模型,并在统一框架下实现这些频谱模型,提供了对有效性和效率的多方位实验评估,并提供了在评估和选择性能良好的频谱图神经网络时的实用指南。我们的实现能够在更大的图上应用,性能可比且开销较小,可以从以下链接获得:
Jun, 2024
图压缩是一种新兴技术,通过学习一个显著较小但保留原图关键信息的压缩图,加速图神经网络并保持性能,在神经架构搜索等下游应用和对大规模图冗余性的理解方面具有潜力。本文介绍GC-Bench,一个综合评估图压缩方法的框架,提供对GC过程和压缩图特性的深入洞察,指导未来的性能增强和探索新应用。
Jun, 2024
在图学习领域中,我们首次全面研究并明确定义了数据集有效性,通过基于公平基准测试框架的经验性协议和考虑数据集复杂性和模型性能的新指标,我们发现我们的指标与现有研究和直觉假设一致,同时通过研究内在图属性和类标签之间的相关性以及开发支持相关性可控合成数据集生成的新技术,我们揭示了某些数据集低有效性背后的原因,我们的发现为当前对基准数据集的理解提供了启示,并可推动未来图分类基准的进化。
Jul, 2024