具有注意力联邦聚合的时间序列股票预测的 Transformer
本文系统地回顾了 Transformer 在时间序列建模中的运用,总结了其优点、局限性以及在网络结构、应用方面的适应性和修改,并对常见的时间序列任务进行了分类,包括预测、异常检测和分类。通过实证分析,研究了 Transformer 在时间序列中的表现,并提出了未来研究方向。这是第一篇全面系统地总结 Transformer 近期在时间序列数据建模领域进展的论文。
Feb, 2022
测试和评估在时间序列数据上应用 Transformer 模型的有效性,通过调整超参数、预处理数据、应用降维或卷积编码等方式来解决异常检测、上下文感知和空间复杂性问题,同时探索修改现有解决方案以实现更高性能和学习广义知识的方法。
Aug, 2021
本文提出了通过使用卷积神经网络和 Transformers 来捕捉时间序列中的短期和长期依赖,并用于预测股票价格变化,与传统的统计和深度学习方法相比,实验结果表明该方法取得了成功。
Apr, 2023
在这项工作中,我们反思了 Transformer 组件的能力,并重新设计了 Transformer 架构,而无需对基本组件进行任何调整。我们提出了 iTransformer 模型,这个模型通过反转注意力机制和前馈网络的职责,以实现对多变量时间序列的预测。iTransformer 模型在几个真实世界的数据集上取得了一致的最先进表现,进一步增强了 Transformer 家族的性能、广泛适用于不同变量、更好地利用任意回望窗口,成为时间序列预测的基本骨干的一个很好的替代方案。
Oct, 2023
本论文讨论了长期时间序列预测 (LTTF) 中的 Transformer 模型,提出了一种有效的基于 Transformer 的模型 Conformer,采用编码器 - 解码器架构和正则化流派生的模块进一步提高信息利用率,并显式地建模时间序列数据中的互系列相关性和时间动态以加强下游自我关注机制,实验表明 Conformer 模型在 LTTF 中优于现有的方法,并可生成可靠的预测结果与不确定性量化。
Jan, 2023
通过简单的线性模型实验发现在长期时间序列预测任务中,线性模型 LTSF-Linear 的效果优于复杂的基于 Transformer 方法,这引发人们对该任务以及其他时间序列分析任务中基于 Transformer 方法的有效性的反思。
May, 2022
本文提出了一种基于 Transformer 的多元时间序列预测和自我监督表征学习的有效设计,它基于两个关键组件:时间序列划分为子序列级别的片段,这些片段作为输入标记传递给 Transformer;通道独立性,其中每个通道包含一个单变量时间序列,其在所有系列中共享相同的嵌入和 Transformer 权重。PatchTST 可以显著提高长期预测准确性,超越 SOTA Transformer-based models,并在自我监督预训练任务中实现出色的微调性能。
Nov, 2022
深度学习在时间序列预测方面取得了显著进展,其中 Transformer 架构在处理长序列的语义相关性方面表现出色。研究综述了 Transformer 架构及其改进方法在长期时间序列预测任务中的应用,总结了公开的长期时间序列预测数据集和评估指标,并提供了关于在时间序列分析中有效训练 transformers 的最佳实践和技术,最后提出了该领域的潜在研究方向。
Oct, 2023
本文提出一种基于 Transformer 的方法来估计高维多变量时间序列的联合预测分布,该方法基于注意力机制的解码器能可靠地模拟非参数 Copulas 的特性,使得模型具有多种有用的属性,其中包括可以缩放到数百个时间序列,支持预测和插值,可以处理非对齐和不均匀采样的数据,并可以在训练期间无缝地适应缺失数据,最终的实证结果表明我们的模型在多个真实数据集上都可以产生有竞争力的预测效果。
Feb, 2022