持久化初始化:Transformer 架构在时间序列预测中的一种新适应方式
我们提出了一种用于时间序列预测的 Transformer 架构,重点在于时间序列的分词,并将其应用于来自定价领域的真实预测问题。我们的架构旨在同时学习所有可用数据的多个尺度上的有效表示。模型包含几个创新模块:采用多个分辨率的时间序列分割、用于处理时间变化的已知变量的多分辨率模块、用于捕捉交叉序列信息的混合器模块,以及一种对输出进行优化的新颖输出头,以适应增加的令牌数量。我们将该模型应用于一家非常大零售商的降价团队所面临的真实预测问题中。在所进行的实验中,我们的模型优于内部模型和选择的现有深度学习架构。
Jul, 2024
本文提出了一种基于 Transformer 的多元时间序列预测和自我监督表征学习的有效设计,它基于两个关键组件:时间序列划分为子序列级别的片段,这些片段作为输入标记传递给 Transformer;通道独立性,其中每个通道包含一个单变量时间序列,其在所有系列中共享相同的嵌入和 Transformer 权重。PatchTST 可以显著提高长期预测准确性,超越 SOTA Transformer-based models,并在自我监督预训练任务中实现出色的微调性能。
Nov, 2022
我们提出了一种关注的联邦变压器,用于时间序列股票预测,在保护参与企业的隐私的同时具备更好的性能。关于从雅虎金融网站获取的各种股票数据的实证结果显示了我们提出的方案在处理上述挑战和联邦学习中的数据异质性方面的优越性。
Jan, 2024
在这项工作中,我们反思了 Transformer 组件的能力,并重新设计了 Transformer 架构,而无需对基本组件进行任何调整。我们提出了 iTransformer 模型,这个模型通过反转注意力机制和前馈网络的职责,以实现对多变量时间序列的预测。iTransformer 模型在几个真实世界的数据集上取得了一致的最先进表现,进一步增强了 Transformer 家族的性能、广泛适用于不同变量、更好地利用任意回望窗口,成为时间序列预测的基本骨干的一个很好的替代方案。
Oct, 2023
测试和评估在时间序列数据上应用 Transformer 模型的有效性,通过调整超参数、预处理数据、应用降维或卷积编码等方式来解决异常检测、上下文感知和空间复杂性问题,同时探索修改现有解决方案以实现更高性能和学习广义知识的方法。
Aug, 2021
提出一种名为 MultiResFormer 的基于 Transformer 的模型,通过自适应选择最佳的 patch 长度来动态建模时间序列的变化,并在长期预测任务中优于基于 patch 的 Transformer,同时使用比 CNN 基线更少的参数。
Nov, 2023
提出了一种多分辨率时间序列变压器(MTST)框架,采用了多支架构来同时建模不同分辨率的多样化时间模式,通过相对位置编码提取不同尺度上的周期成分,与现有的时间序列变压器相比,在几个真实世界数据集上进行了广泛实验,证明了 MTST 在与最先进的预测技术的比较中的有效性。
Nov, 2023
提出了一种基于编码器 - Transformer 结构的多元时间序列预测框架,用于预测系统剩余可用寿命,与其他 13 种当前最先进模型相比,其性能提升了平均 137.65%。
Aug, 2023
本研究提出了一种通用的多尺度框架,可应用于当前最先进的基于 Transformer 的时间序列预测模型,通过多尺度共享权重迭代地改进预测的时间序列,引入架构适应和特殊设计的标准化方案,可在不增加过多计算负担的情况下,将性能从 5.5%提高到 38.5%,详细的消融研究表明了每个贡献在架构和方法上的有效性,进一步证明了所提出的改进优于其对应的基线模型,代码公开在此 https URL。
Jun, 2022