计时器:用于大规模时间序列分析的 Transformer
该研究通过重新审视时间序列变压器并确定先前研究的不足,引入了一种名为 Timely Generative Pre-trained Transformer 的创新架构。该架构通过整合递归注意力和时间卷积模块来有效地捕获长序列中的全局 - 局部时间依赖关系,并利用相对位置嵌入和时间衰减处理趋势和周期模式。实验结果表明,该模型在建模连续监测生物信号以及纵向电子健康记录中经常出现的非规则采样时间序列数据方面表现出色,这一突破意味着时间序列深度学习研究的优先级转向了大规模预训练而非从头开始的小规模建模。
Nov, 2023
基于大型语言模型(LLMs)的启发,时间序列预测(TSF)正在向基于 Universal-Transformer 的大型时间序列模型(LTSMs)过渡,旨在为 TSF 训练通用模型。然而,在异构时间序列数据上训练 LTSMs 面临着多样的挑战,包括数据集之间不同的频率,维度和模式。我们通过综合分析设计选择,并旨在确定训练 LTSM 的最佳实践。此外,我们提出了一种针对时间序列数据的新型统计提示策略称为 “时间序列提示”。基于我们分析中的观察结果,我们引入了 “LTSM-bundle”,该捆绑包绑定了我们确定的最佳设计选择。实证结果表明,“LTSM-bundle” 在基准数据集上相比于最先进的 LSTMs 和传统的 TSF 方法具有卓越的零射击和少射击性能。
Jun, 2024
通过将时间序列编码为数字字符串,我们可以将时间序列预测视为文本中的下一个标记预测。我们发现,大型语言模型(LLMs)如 GPT-3 和 LLaMA-2 可以意外地在零样本外推时间序列,其性能与或超过在下游任务上训练的专用时间序列模型相当。为了促进这种性能,我们提出了有效令牌化时间序列数据并将离散分布转换为对连续值的高度灵活的密度的流程。我们认为,LLMs 对于时间序列的成功源于它们能够自然地表示多模态分布,结合了对简洁性和重复性的偏好,这与许多时间序列的显著特征(如重复季节性趋势)相一致。我们还展示了 LLMs 如何自然处理缺失数据而无需插补,容纳文本边信息,并回答问题以帮助解释预测。虽然我们发现增加模型大小通常会提高时间序列的性能,但我们展示了由于 GPT-4 如何令牌化数字以及较差的不确定性校准,它可能比 GPT-3 表现更差,这很可能是因为诸如 RLHF 之类的对齐干预的结果。
Oct, 2023
通过使用预先在自然语言或图像数据上进行训练的 Transformer 模型,并通过最小修改进行微调,我们在时序预测任务上评估了 Frozen Pretrained Transformer (FPT) 的效果,并发现其性能在跨模态时序预测任务中可以与同模态微调相媲美甚至处于最前沿状态。
Feb, 2023
利用预训练模型并引入自定义适配器优化预训练的 transformer 模型用于时间序列分析,在多个任务中取得了卓越的性能,尤其是通过适配器微调进一步提升了性能,超过了专门用于特定任务的模型。
Nov, 2023
基于大规模语言模型的缩放定律已经在如何训练规模更大的模型以获得可预测的性能提升上提供了有用的指导。该研究表明,基于解码器的时间序列变换模型也展示了与语言模型类似的缩放行为,对于广泛范围内的架构细节(纵横比和头数)几乎没有影响。我们汇集了大量的异构时间序列数据进行训练,并首次建立了参数数量、数据集大小和训练计算量与其之间的幂律缩放关系,涵盖了五个数量级。
May, 2024
TEMPO 是一个基于时间序列的新框架,通过利用时序任务的两个基本归纳偏好来有效学习时间序列表示,展现出超过 20% 至 60% 的改善性能,并在标准监督学习和之前未见数据集的情景中观察到。
Oct, 2023
将多个不同动态和领域的时间序列分割为片段作为输入,我们提出了一种新颖的模型 LPTM 来进行预训练,自动识别最佳的数据集特定分段策略,并在多个不同领域的时间序列分析任务中实现达到甚至超过领域特定最先进模型的性能,并且数据和计算效率明显提高,使用的数据量减少了 40%,训练时间减少了 50%。
Nov, 2023
对利用大型语言模型(LLMs)进行时间序列分析的现有方法进行了系统概述,总结了基于 LLM 的时间序列分析的一般流程,并探讨了未来的研究机会。
Feb, 2024
通过时间序列数据的下一个令牌和上一个令牌的预测,BiTimelyGPT 在预训练任务中保留了时间序列的原始分布和数据形状,并展示了更具表现力的表示能力。使用生物信号数据,BiTimelyGPT 在预测神经功能、疾病诊断和生理迹象方面表现出优异性能。通过可视化注意力热图,我们观察到经过预训练的 BiTimelyGPT 能够从时间序列序列中识别出有区别性的片段,尤其是在任务微调之后。
Feb, 2024