基于深度学习的VLSI超图划分
本研究提出了基于深度学习的GAP框架来解决节点分割问题。通过定义不同iable损失函数以及利用反向传播来优化网络参数,实现基于图结构的节点分割。相较于传统的分割方法,GAP不仅更快,并且具有良好的扩展性能力,可适用于不同的图结构,并可推广到未知的图形结构上。研究表明,GAP能够取得与传统分割方式相媲美的结果。
Mar, 2019
本文介绍了如何使用简单的 GNN 架构来解决图着色的基本组合问题,并且展示了该模型在独立于训练数据的图数据上的泛化能力以及优于其他基线模型的表现。同时,我们还展示了如何将节点嵌入在多维空间中进行聚类,从而获得构造性解决方案。我们的结果有助于缩小人们对 GNN 算法学习的差距,并提供了符号推理与深度学习系统集成的可靠方法。
Mar, 2019
本研究提供了第一个公平、可重复的基准测试,重点研究了训练深度图神经网络中的技巧,并利用该测试在数十个代表性图数据集上进行了全面评估,证明了初始连接、标识映射、分组和批量归一化的有机组合实现了深度GNN在大型数据集上的最新成果。
Aug, 2021
我们提出了一种高度并行的算法,用于效放缩大处理器计数的图卷积网络的训练。我们利用图的顶点划分,在处理器之间使用非阻塞点对点通信操作以获得更好的可伸缩性。我们基于超图划分模型提出一种稀疏矩阵划分方案,展示了所提出算法在真实世界的图数据集上比替代解决方案实现了相当快的加速(包括在亿级图上的表现)。
Dec, 2022
本文介绍了一种名为SwitchBlade的框架,通过新型分区级操作融合、分区级多线程和细粒度图分区等方法,实现了对图神经网络的高性能和高效能加速,相较于NVIDIA V100 GPU,SwitchBlade平均速度提升1.85倍,节能19.03倍,并且在性能上与最先进的专用加速器相媲美。
Aug, 2023
本文研究了图分区对分布式图神经网络训练的有效性,发现图分区是一个关键的预处理步骤,能够大大减少训练时间和内存占用,同时也证明了分区所需的时间可以通过减少图神经网络训练时间加以弥补。
Aug, 2023
通过一种新框架,NeuroCut,结合了神经网络和强化学习,并具有对不可微分函数的优化能力,从而在图分区问题中表现出色,并在多种分区目标中展现出较强的泛化能力和拓扑鲁棒性。
Oct, 2023
图分区神经网络(GPNNs)是一种新颖的GNN架构,通过对图进行分区以及顶点集和子图之间的结构相互作用的探索,提高了GNN的表达能力,并在各种图基准任务中展示了超越现有GNN模型的卓越性能。
Dec, 2023
设计工具的运行时间随着芯片设计的复杂性增加而增长,这已成为一个瓶颈。我们提出了一种将网络列表表示为有向超图,并提出了一种用于有效学习(有向)超图的模型,与现有的图学习框架相比,DE-HNN显著提高了设计优化工具的精确度。
Mar, 2024
本研究针对传统图划分(GP)方法的效率低下问题,提出了一种名为PR-GPT的创新框架,该框架结合了预训练和细化的理念。核心发现是,通过在小型合成图上进行离线预训练,PR-GPT能够有效地将模型推广至大型图,从而提高图划分的速度和质量,且无需重新训练,具备良好的推理效率和流处理支持。
Sep, 2024