MTS-Mixers: 因式分解时空和通道混合进行多元时间序列预测
TSMixer 是一个轻量级的神经架构,由多层感知机模块组成,旨在为补丁时间序列提供高效的替代转换器。通过添加在线对账头,混合通道建模和简单的门控关注机制等组件,TSMixer 的学习能力得到显著提高。TSMixer 在预测方面的性能优于现有的 MLP 和 Transformer 模型,同时可显著减少存储器和运行时间。
Jun, 2023
使用多尺度 Transformer 的多变量时间序列预测中,引入了不变量嵌入技术用于捕捉短期时间依赖并将数据投射到高维空间,同时保留时间步和变量维度。进一步,提出了一种新颖的 Multi-scale Transformer 金字塔网络 (MTPNet), 用于有效地捕捉多个不受约束尺度上的时间依赖。在九个基准数据集上的广泛实验证明,提出的 MTPNet 优于最新的先进方法。
Aug, 2023
本文研究线性模型在时间序列预测中的能力,提出了一个基于多层感知机的模型 TSMixer,通过在时间和特征维度上的混合操作提取信息。TSMixer 在常见的学术基准测试中表现出和专业模型类似的性能,在真实世界的 M5 基准测试数据集上表现出比先进模型更好的性能。本文的结果强调了有效利用交叉变量和辅助信息以提高时间序列预测性能的重要性,并且预计 TSMixer 的设计范例会为基于深度学习的时间序列预测开启新的视野。
Mar, 2023
本文提出了一种基于 Transformer 的多元时间序列预测和自我监督表征学习的有效设计,它基于两个关键组件:时间序列划分为子序列级别的片段,这些片段作为输入标记传递给 Transformer;通道独立性,其中每个通道包含一个单变量时间序列,其在所有系列中共享相同的嵌入和 Transformer 权重。PatchTST 可以显著提高长期预测准确性,超越 SOTA Transformer-based models,并在自我监督预训练任务中实现出色的微调性能。
Nov, 2022
通过引入 Cross-variable Decorrelation Aware feature Modeling (CDAM) 和 Temporal correlation Aware Modeling (TAM) 技术,本研究提出了一种新的框架,通过最小化通道之间的冗余信息并增强相关的相互信息来改进 Channel-mixing 方法,在综合测试中明显超过了现有模型。
Mar, 2024
基于 Mixed Channels 策略,本文提出了 MCformer 作为一种混合通道特征的多变量时间序列预测模型,通过注意力机制有效捕捉了通道间相关信息从而在多变量时间序列预测任务中胜过了纯 CI 策略。
Mar, 2024
通过开发一种名为 Modality-aware Transformer 的新型多模态变压器,我们旨在解决多模态时间序列预测的复杂挑战,并在金融数据集上进行了广泛实验,证明其优于现有方法,提供了一种新颖而实用的解决方案。
Oct, 2023
通过引入一种新颖的 CNN 模型 ——PatchMixer,我们解决了 Transformer 模型在时间序列预测任务中面临的挑战,该模型具有可以保留时间信息的排列不变自注意力机制。与传统 CNN 不同的是,我们的方法仅依赖于深度可分离卷积,可以在单一尺度的结构中提取局部特征和全局相关性。试验结果表明,与现有最先进的方法和表现最佳的 CNN 相比,PatchMixer 相对提升了分别为 3.9%和 21.2%,而且速度是最先进方法的 2-3 倍。我们将发布我们的代码和模型。
Oct, 2023
我们介绍了 CSformer 模型,它通过精心设计的两阶段自注意机制实现了序列特定和通道特定信息的提取,并引入了序列适配器和通道适配器,以促进各个维度之间的协同和相互增强,从而显著提高了多变量时间序列数据的特征提取能力。
Dec, 2023
我们提出了一种新颖的相关注意力机制,能够高效地捕捉多元时间序列数据中不同特征之间的复杂相互关系,并能够与现有的基于 Transformer 的模型无缝集成,提高效率。在多种任务中,包括插补、异常检测和分类,相关注意力机制与先前的 Transformer 模型相结合,形成了更好的编码器架构,并且取得了先进的结果。
Nov, 2023