我们利用预训练的大型语言模型 (LLMs) 提升时间序列预测的能力,通过结合时间序列拼接和时间编码,增强了LLMs处理时间序列数据的能力,采用两阶段的精调过程,并采用多种参数高效精调技术 (PEFT),LLM4TS在长期预测方面取得了最先进的结果。
Aug, 2023
利用大型语言模型进行时间序列预测的重新编程框架,通过在输入时间序列中加入文本原型,将两种模态对齐,进而获得强大的时间序列学习器Time-LLM,该学习器在少样本和零样本学习场景中表现出优越性能并超越了专业的预测模型。
Oct, 2023
通过将时间序列编码为数字字符串,我们可以将时间序列预测视为文本中的下一个标记预测。我们发现,大型语言模型(LLMs)如GPT-3和LLaMA-2可以意外地在零样本外推时间序列,其性能与或超过在下游任务上训练的专用时间序列模型相当。为了促进这种性能,我们提出了有效令牌化时间序列数据并将离散分布转换为对连续值的高度灵活的密度的流程。我们认为,LLMs对于时间序列的成功源于它们能够自然地表示多模态分布,结合了对简洁性和重复性的偏好,这与许多时间序列的显著特征(如重复季节性趋势)相一致。我们还展示了LLMs如何自然处理缺失数据而无需插补,容纳文本边信息,并回答问题以帮助解释预测。虽然我们发现增加模型大小通常会提高时间序列的性能,但我们展示了由于GPT-4如何令牌化数字以及较差的不确定性校准,它可能比GPT-3表现更差,这很可能是因为诸如RLHF之类的对齐干预的结果。
该综述论文详细探讨了利用大型语言模型进行时间序列分析的各种方法,包括直接提示、时间序列量化、对齐技术、利用视觉作为桥梁机制以及与其他工具的结合,同时提供了现有的多模态时间序列和文本数据集的综合概述,并分析了该新兴领域的挑战和未来机会。
Feb, 2024
通过利用大型语言模型,研究利用自回归时间序列预测模型(AutoTimes)处理时间序列数据,该模型利用基于语言建模学习的通用令牌转换,具备灵活的系列长度和较高的性能。
当前大语言模型在时间序列分析领域的潜力和发展前景
对利用大型语言模型(LLMs)进行时间序列分析的现有方法进行了系统概述,总结了基于LLM的时间序列分析的一般流程,并探讨了未来的研究机会。
利用大型语言模型和时间序列对齐框架,进行多元时间序列预测,同时充分发挥语言模型的潜力,建立了长期和短期预测的新的最先进方法。
Mar, 2024
在大型语言模型中,尤其是在时间序列预测方面,进行了一系列消融研究,发现移除语言模型组件或用基本的注意力层替换并不降低预测结果,甚至在大多数情况下结果有所提升。此外,预训练的语言模型并不比从头开始训练的模型更好,不能准确表示时间序列中的顺序依赖关系,也不能在小样本场景中提供帮助。同时,研究了时间序列编码器,揭示了贴片和注意力结构与基于最新技术的LLM的预测模型效果相似。
Jun, 2024
本研究解决了时间序列模型推理能力评估的空白,提出了一种系统性的方法来衡量深度时间序列预测模型的隐性推理能力。研究发现某些线性、基于多层感知机和基于补丁的Transformer模型在分布外场景中表现出有效的泛化能力,表明其在简单模式记忆之外的推理能力值得深入探讨。
Sep, 2024