学习结构组件:面向模块化可解释的多元时间序列预测
该研究提出了一种面向多变量时间序列数据的图神经网络框架,采用图学习模块提取自动生成的变量之间的关系,同时运用新颖的混合传递和膨胀创新层捕捉时间序列中的空间和时间相关性,而这些模块被联合学习在一个端对端框架中。实验结果表明,该模型的性能在3个基准数据集上优于现有最先进方法,并在提供额外结构信息的两个交通数据集上实现了与其他方法相当的性能。
May, 2020
本文提出了一种使用动态图神经普通微分方程(MTGODE)来预测多元时间序列的连续模型,旨在解决离散神经网络在捕捉稳定和精确的时空动态时所遇到的困难。我们的实验证明了该方法从多种角度在五个时间序列基准数据集上的超越性。
Feb, 2022
本文介绍了一种新型的预训练框架,将“可扩展时间序列预训练模型”(STEP)与“空间-时间图神经网络”(STGNN)相结合,通过长期历史时间序列数据的预处理,提供上下文信息,显著提高预测准确性。
Jun, 2022
本文研究关注机制在时间序列预测性能上的作用,提出MTS-Mixers来解决捕获时间和通道互动中的交错和冗余问题,并证明了关注机制不是捕获时间依赖关系的必要条件。
Feb, 2023
本研究主要探讨了基于空间-时间图神经网络的多元时间序列建模和预测,提出了一种紧凑型的预测模型,通过节点标识驱动,不需要复杂的顺序模块,并使用稠密编码器-解码器和消息传递层,能够有效地处理空间-时间问题。实证结果表明,这种简单而优雅的模型在适当归纳基础的情况下,与复杂的设计相比,具有更好的性能,更易解释,更高效。
Jul, 2023
使用多尺度Transformer的多变量时间序列预测中, 引入了不变量嵌入技术用于捕捉短期时间依赖并将数据投射到高维空间, 同时保留时间步和变量维度。进一步, 提出了一种新颖的Multi-scale Transformer金字塔网络(MTPNet), 用于有效地捕捉多个不受约束尺度上的时间依赖。在九个基准数据集上的广泛实验证明, 提出的MTPNet优于最新的先进方法。
Aug, 2023
该研究提出了一种基于空间 - 时间蒙面自编码器(STMAE)的多元时间序列(MTS)预测框架,利用蒙面自编码器来增强空间 - 时间基线模型的性能,并通过在多个MTS基准上进行广泛实验来证明其在提高MTS预测能力方面的潜力。
Sep, 2023
使用BasicTS基准测试来解决多元时间序列预测中公正对比问题,并通过对丰富的多元时间序列数据集进行详尽的性能和效率比较,为研究人员选择和设计多元时间序列预测模型提供洞见。
Oct, 2023
我们提出了一种方法,将多变量信号表示为图中的节点,通过图神经网络和注意力机制来高效学习时间序列数据中的潜在关系,并建议使用分层信号分解来捕捉多个空间依赖关系,实验证明我们的模型在长期预测任务中优于现有模型,平均均方误差(MSE)减少了23%。
Nov, 2023
提出了一种名为Time-aware Graph Convolutional Recurrent Network (TGCRN)的统一框架,通过Time-aware Graph Structure Learning (TagSL)和Graph Convolution-based Gated Recurrent Unit (GCGRU)在编码器-解码器结构中联合捕捉空间和时间依赖关系,用于多步骤的时空预测。实验证明,TGCRN能够推进现有技术的发展,并提供了详细的消融研究和可视化分析,深入揭示了时间感知结构学习的有效性。
Dec, 2023