时空 GPT-1
研究表明在历史电负荷数据有限的情况下,机器学习模型在负荷预测中的准确性受到限制。该论文探讨了大规模时间序列模型(TimeGPT)在历史数据有限的负荷预测中的潜力,并通过训练模型适应数据分布和特征,取得了在短期预测中超越其他机器学习模型和统计模型的成果。然而,由于负荷数据与训练数据之间的分布差异可能会影响 TimeGPT 的性能,因此在实际应用中需要使用验证集损失来确定是否选择 TimeGPT。
Apr, 2024
TEMPO 是一个基于时间序列的新框架,通过利用时序任务的两个基本归纳偏好来有效学习时间序列表示,展现出超过 20% 至 60% 的改善性能,并在标准监督学习和之前未见数据集的情景中观察到。
Oct, 2023
TrackGPT 是一种基于 GPT 的模型,可用于实体轨迹预测,并在测距和空间两个领域表现出强大的性能,同时保持领域无关性和最小化数据特征要求。
Jan, 2024
该研究通过重新审视时间序列变压器并确定先前研究的不足,引入了一种名为 Timely Generative Pre-trained Transformer 的创新架构。该架构通过整合递归注意力和时间卷积模块来有效地捕获长序列中的全局 - 局部时间依赖关系,并利用相对位置嵌入和时间衰减处理趋势和周期模式。实验结果表明,该模型在建模连续监测生物信号以及纵向电子健康记录中经常出现的非规则采样时间序列数据方面表现出色,这一突破意味着时间序列深度学习研究的优先级转向了大规模预训练而非从头开始的小规模建模。
Nov, 2023
通过将时间序列编码为数字字符串,我们可以将时间序列预测视为文本中的下一个标记预测。我们发现,大型语言模型(LLMs)如 GPT-3 和 LLaMA-2 可以意外地在零样本外推时间序列,其性能与或超过在下游任务上训练的专用时间序列模型相当。为了促进这种性能,我们提出了有效令牌化时间序列数据并将离散分布转换为对连续值的高度灵活的密度的流程。我们认为,LLMs 对于时间序列的成功源于它们能够自然地表示多模态分布,结合了对简洁性和重复性的偏好,这与许多时间序列的显著特征(如重复季节性趋势)相一致。我们还展示了 LLMs 如何自然处理缺失数据而无需插补,容纳文本边信息,并回答问题以帮助解释预测。虽然我们发现增加模型大小通常会提高时间序列的性能,但我们展示了由于 GPT-4 如何令牌化数字以及较差的不确定性校准,它可能比 GPT-3 表现更差,这很可能是因为诸如 RLHF 之类的对齐干预的结果。
Oct, 2023
大型语言模型(LLMs)通常在广泛的、时间不加区分的文本语料库上进行训练,反映了缺乏带有时间元数据的数据集。本文提出了一种新的方法:一系列时间点的 LLMs,称为 Time Machine GPT(TiMaGPT),专门设计为非预测性的。这确保它们对未来的事实信息和语言变化保持不知情,这种策略对于理解语言的演化以及在动态环境下应用模型(如时间序列预测)尤为重要。我们提供模型和训练数据集的访问权限。
Apr, 2024
本研究论文致力于提出一种大规模时间序列模型 (Time Series Transformer),通过深度学习和大规模预训练,解决了小样本情境下时间序列分析中的性能瓶颈问题。
Feb, 2024
基于大型语言模型的自然语言处理,我们设计了一个时间序列基础模型用于预测,在各种公共数据集上,模型的开箱即用的零射的表现接近各个数据集的最先进的监督预测模型准确度。模型基于对大型时间序列语料库进行预训练的修补解码器样式注意力模型,并且可以适用于不同的预测历史长度、预测长度和时间粒度。
Oct, 2023
TimeGNN 是一种学习动态时间图表示的方法,能够捕捉多个系列的相关性和交互模式的演变,并在预测性能方面实现比其他先进的基于图的方法快 4 到 80 倍的推理时间。
Jul, 2023