Autoformer: 基于自相关的分解 Transformer 模型用于长期序列预测
本论文讨论了长期时间序列预测 (LTTF) 中的 Transformer 模型,提出了一种有效的基于 Transformer 的模型 Conformer,采用编码器 - 解码器架构和正则化流派生的模块进一步提高信息利用率,并显式地建模时间序列数据中的互系列相关性和时间动态以加强下游自我关注机制,实验表明 Conformer 模型在 LTTF 中优于现有的方法,并可生成可靠的预测结果与不确定性量化。
Jan, 2023
通过将时间序列分成按天分割的小块,重新进行逐块方式处理并设计时间建模 Transformer-Dateformer,以提高 Transformers 模型的信息输入和输出并使模型能够全局分析时间序列,大幅提高了时间序列预测的准确性和半年的最大预测范围。
Jul, 2022
Patchformer 是一种整合了补丁嵌入 (patch embedding) 和编码 - 解码式 Transformer 架构的新型模型,用于解决现有基于 Transformer 的模型在长期预测中难以应对复杂时间模式的问题,通过将多元时间序列数据分解为多个单元数据并将其分割为多个补丁,Patchformer 有效地提高了模型捕捉局部和全局语义依赖性的能力,数值分析表明,在新颖的多能源数据集和其他基准数据集上,Patchformer 在多元和单元长期预测中均能够获得更好的准确性,此外,研究还发现了能源相关产品之间相互依赖对 Patchformer 和其他对比模型长期时间序列预测性能的积极影响,以及 Patchformer 相对于其他模型的优越性,这在处理长期多能源预测的相互依赖性和复杂性方面具有重大的进展,最后,Patchformer 作为唯一一个模型跟踪过去序列长度与模型性能之间的正相关关系,突出了其捕捉长程过去局部语义信息的能力。
Apr, 2024
该研究提出了一种名为 FEDformer 的算法,采用 Transformer 和季节趋势分解方法相结合,提高长期预测的性能,同时通过基于 Fourier 变换的频率增强技术进一步提高了预测的准确性,与当前先进的方法相比,在多元和单元时间序列上均能大幅度降低预测误差。
Jan, 2022
通过引入对比学习和增强分解架构,本研究提出了一种新颖的方法来解决长期预测中存在的问题,并通过实验证明,在多个长期基准测试中,特别是需要长时间输出进行预测的挑战性场景中,我们的方法优于 14 个基准模型。
Feb, 2024
通过条件相关性和自相关性作为研究工具,我们引入了一种轻量级的 HDformer 模型,该模型使用分层分解技术,不仅推翻了模型扩展的趋势,而且在大量减少计算和参数的同时实现了精确的长期时间序列预测,超越了现有的最先进模型,表明在长期时间序列预测中,模型的大小并不一定更好。
Jan, 2024
本文提出了一种基于 Transformer 的多元时间序列预测和自我监督表征学习的有效设计,它基于两个关键组件:时间序列划分为子序列级别的片段,这些片段作为输入标记传递给 Transformer;通道独立性,其中每个通道包含一个单变量时间序列,其在所有系列中共享相同的嵌入和 Transformer 权重。PatchTST 可以显著提高长期预测准确性,超越 SOTA Transformer-based models,并在自我监督预训练任务中实现出色的微调性能。
Nov, 2022
多元时间序列预测:提出了 Variable Correlation Transformer (VCformer) 模型,通过 Variable Correlation Attention (VCA) 模块挖掘变量之间的相关性,并结合 Koopman Temporal Detector (KTD) 来处理时间序列的非平稳性,实验证明 VCformer 在真实数据集上取得了优异的性能。
May, 2024
本文提出了一种轻量级的 Periodformer 模型,采用 Period-Attention 机制和内置的近似性,同时嵌入门机制控制注意模块对预测结果的影响,并使用基于贝叶斯优化的多 GPU 异步并行算法加快了超参数优化,结果表明该模型在多元和单元预测方面的预测误差分别减少了 13% 和 26%,同时缩短了 46% 的搜索时间。
Jun, 2023
为了解决 Transformer 在长序列时间序列预测中的问题,我们设计了一种高效的基于 Transformer 的模型 Informer,其具有 ProbSparse 自注意机制和生成式解码器等特点,在四个大规模数据集上显著优于现有方法。
Dec, 2020