DSformer:一种用于多变量时间序列长期预测的双抽样 Transformer
通过将时间序列分成按天分割的小块,重新进行逐块方式处理并设计时间建模 Transformer-Dateformer,以提高 Transformers 模型的信息输入和输出并使模型能够全局分析时间序列,大幅提高了时间序列预测的准确性和半年的最大预测范围。
Jul, 2022
该研究提出了一种名为 FEDformer 的算法,采用 Transformer 和季节趋势分解方法相结合,提高长期预测的性能,同时通过基于 Fourier 变换的频率增强技术进一步提高了预测的准确性,与当前先进的方法相比,在多元和单元时间序列上均能大幅度降低预测误差。
Jan, 2022
提出了 Compatible Transformer (CoFormer),一种基于 Transformer 的编码器,用于处理不规则多变量时间序列,并在分类和预测等下游任务中表现出显著的性能优势。
Oct, 2023
基于 Dozer Attention 机制的 Dozerformer 框架在多元时间序列(MTS)预测任务中取得了出色的性能,该机制通过解决注意力机制中的两个关键限制,即二次时间复杂度和基于整个历史序列生成未来值的问题,来捕捉 MTS 数据的局部性、季节性和全局时间依赖性。
Dec, 2023
本研究提出了一种完整的解决方案,包括特征提取和目标预测,旨在解决多变量长期时间序列预测中的空间特征提取和不同预测时期的一致性问题。新的方法称为 “时空编码串联变压器(Stecformer)”,其采用高效的时空编码提取器和级联解码预测器来改善基线模型的性能,并在五个基准数据集上实现了与基线模型可比较的最先进性能。
May, 2023
通过 Transformer 架构,GridTST 模型将时间序列数据视为网格,结合创新的多方向关注机制,同时考虑时间和变量维度,提升了分析能力,并在各种真实数据集上实现了最先进的性能。
May, 2024
该论文提出了一种深度图聚类变压器(DGCformer),用于多元时间序列预测。它通过图卷积网络和自编码器首先将相关变量进行分组,然后使用通道依赖策略处理每个变量组,而对不同组则使用通道独立策略。八个数据集上的广泛实验结果表明了我们方法相对于最先进模型的优越性,计算代码将在接受后公开。
May, 2024
提出了一种基于转换器的差分重构注意模型 DRAformer,该模型通过使用差分进行稳定特征表示和集中关注序列属性解决时间序列预测中存在的问题,在四个大规模数据集上表现出了优越性。
Jun, 2022
本论文讨论了长期时间序列预测 (LTTF) 中的 Transformer 模型,提出了一种有效的基于 Transformer 的模型 Conformer,采用编码器 - 解码器架构和正则化流派生的模块进一步提高信息利用率,并显式地建模时间序列数据中的互系列相关性和时间动态以加强下游自我关注机制,实验表明 Conformer 模型在 LTTF 中优于现有的方法,并可生成可靠的预测结果与不确定性量化。
Jan, 2023
该论文介绍了一种名为 Pathformer 的多尺度 Transformer 模型,通过自适应路径进行多尺度建模,以提高预测准确性和泛化能力,实验证明其在真实数据集上表现出优越的性能和泛化能力。
Feb, 2024