May, 2024

上下文时间序列预测器

TL;DR近期基于 Transformer 的大型语言模型展示了在提供的上下文情况下学习各种函数的能力,而无需更新模型参数。为了充分利用上下文能力进行时间序列预测问题,我们将 “时间序列预测任务” 重新构建为输入令牌,通过生成一系列(回顾,未来)对。该方法更加符合内在的上下文机制,并且在不使用预训练的大型语言模型参数的情况下更加参数高效。此外,它解决了现有基于 Transformer 的时间序列预测模型中的过拟合等问题,并在完整数据、少样本和零样本设置下始终比以前的架构表现更好。