使用图神经网络模拟张量程序的执行时间
本文提出了一种基于张量图卷积网络的动态图表示学习模型,通过在张量乘积的基础上设计张量图卷积网络来同时建模时空特征,实验结果表明我们的模型获得了最先进的性能。
Jan, 2024
本文提出 TensorGCN 框架,基于图卷积神经网络进行文本分类,结合单个图的邻域信息和不同图的异构信息进行内部图和跨图传递信息的聚合和协调,实现了在不同种类图中集成异构信息的有效方式。
Jan, 2020
该论文提出了一种基于流量增强的 AST 和图神经网络模型的高精准度性能预测方法 TEP-GNN,其在四个现实情况下的 Java 开源项目中被证明是可行的,但需要进一步工作来使训练的模型适用于其他未知项目。
Aug, 2022
本文提出一种深度强化学习方法,以最小化优化器中神经网络计算图的执行成本。该方法通过离线训练优化器,然后推广到以前未见过的图形,以避免在同一图形上进行更多的训练。通过比较广泛的基线,我们的方法在运行时间和峰值内存使用量上比经典和其他基于学习的方法都取得了显着的改进。
May, 2019
该论文介绍了基于 Tensor Processing Units(TPUs)上运行的完整张量程序(表示为计算图)的性能预测数据集 TpuGraphs,该数据集提供了大规模图的图级预测任务,涉及规模可比较的图属性预测数据集的 25 倍的图,以及平均比现有的机器学习程序性能预测数据集大 770 倍的大型图,从而带来了从可伸缩性、训练效率到模型质量等方面的新挑战。
Aug, 2023
TimeGNN 是一种学习动态时间图表示的方法,能够捕捉多个系列的相关性和交互模式的演变,并在预测性能方面实现比其他先进的基于图的方法快 4 到 80 倍的推理时间。
Jul, 2023
该论文介绍了一个基于深度学习工作负载的张量程序优化学习框架,其通过学习领域特定的统计成本模型来引导张量操作实现的搜索,进而加速搜索,实现性能与手动调整的图书馆竞争力相当。
May, 2018
提出了一种名为 Time-aware Graph Convolutional Recurrent Network (TGCRN) 的统一框架,通过 Time-aware Graph Structure Learning (TagSL) 和 Graph Convolution-based Gated Recurrent Unit (GCGRU) 在编码器 - 解码器结构中联合捕捉空间和时间依赖关系,用于多步骤的时空预测。实验证明,TGCRN 能够推进现有技术的发展,并提供了详细的消融研究和可视化分析,深入揭示了时间感知结构学习的有效性。
Dec, 2023