提升变压器的效率,用于多元时间序列分类
使用多尺度 Transformer 的多变量时间序列预测中,引入了不变量嵌入技术用于捕捉短期时间依赖并将数据投射到高维空间,同时保留时间步和变量维度。进一步,提出了一种新颖的 Multi-scale Transformer 金字塔网络 (MTPNet), 用于有效地捕捉多个不受约束尺度上的时间依赖。在九个基准数据集上的广泛实验证明,提出的 MTPNet 优于最新的先进方法。
Aug, 2023
提出了一种多分辨率时间序列变压器(MTST)框架,采用了多支架构来同时建模不同分辨率的多样化时间模式,通过相对位置编码提取不同尺度上的周期成分,与现有的时间序列变压器相比,在几个真实世界数据集上进行了广泛实验,证明了 MTST 在与最先进的预测技术的比较中的有效性。
Nov, 2023
本文介绍了一种新的框架,通过提取和聚类高度激活 CNN 神经元的输入表征模式来解释多元时间序列数据,以捕获输入信号的作用和依赖关系,并构建一个捕获每层提取模式的时间关系的图形,最后使用图形嵌入算法生成可解释的时间序列特征表示。通过在 8 个 UCR/UEA 归档数据集以及 HAR 和 PAM 数据集上运行广泛的实验,证明了我们的时间感知基于图形的表征在 MTS 分类中具有明显优势,并丰富了它们的可解释性。
Jun, 2023
本研究提出了一种使用 PCA 增强的新型 Transformer 预测框架,以降低冗余信息、提高预测准确性并优化运行时间效率。通过与其他五个先进模型和四个真实世界数据集的评估结果显示,该框架能够在所有模型和数据集上最小化预测误差,并显著降低运行时间。其中 PCA+Crossformer 模型平均减少均方误差(MSE)33.3% 并缩短运行时间 49.2%。在电力数据集上,该框架降低 MSE 14.3% 和运行时间 76.6%;在交通数据集上,降低 MSE 4.8% 和运行时间 86.9%。本研究旨在推进各种先进模型,增强基于 Transformer 的时间序列预测能力,以适用于复杂数据。
Dec, 2023
多元时间序列预测中,深度学习应用发现,单变量模型常常优于多元模型。为解决多元模型的不足,我们引入一种构建辅助时间序列(CATS)的方法,它类似于二维时态上下文注意机制,从原始时间序列(OTS)中生成辅助时间序列(ATS),以有效地表示和整合序列间关系进行预测。ATS 的关键原则 - 连续性、稀疏性和变动性 - 通过不同模块进行了识别和实现。即使使用基本的两层 MLP 作为核心预测器,CATS 也实现了最先进的水平,显著减少了复杂性和参数,相较于以往的多元模型,标志着它是一种高效且可迁移的 MTSF 解决方案。
Mar, 2024
通过提出一种名为 UniTST 的基于 Transformer 的模型,该模型含有统一的关注机制和调度模块,可以直接建模时间序列数据中的复杂依赖关系,并在多个数据集上展现了出色的性能。
Jun, 2024
本文提出了一种基于 Transformer 的多元时间序列预测和自我监督表征学习的有效设计,它基于两个关键组件:时间序列划分为子序列级别的片段,这些片段作为输入标记传递给 Transformer;通道独立性,其中每个通道包含一个单变量时间序列,其在所有系列中共享相同的嵌入和 Transformer 权重。PatchTST 可以显著提高长期预测准确性,超越 SOTA Transformer-based models,并在自我监督预训练任务中实现出色的微调性能。
Nov, 2022
深度学习在时间序列预测方面取得了显著进展,其中 Transformer 架构在处理长序列的语义相关性方面表现出色。研究综述了 Transformer 架构及其改进方法在长期时间序列预测任务中的应用,总结了公开的长期时间序列预测数据集和评估指标,并提供了关于在时间序列分析中有效训练 transformers 的最佳实践和技术,最后提出了该领域的潜在研究方向。
Oct, 2023
本文研究关注机制在时间序列预测性能上的作用,提出 MTS-Mixers 来解决捕获时间和通道互动中的交错和冗余问题,并证明了关注机制不是捕获时间依赖关系的必要条件。
Feb, 2023
本文提出了一种模块化和可解释的预测框架 SCNN,可以分离时间序列数据中的结构和异构组成部分,并分别预测其演变。在三个实际数据集上的实验证明了 SCNN 可以胜过现有模型并具有更好的可追溯性和可预测性。
May, 2023