Jun, 2024

语言模型对时间序列预测是否真的有用?

TL;DR在大型语言模型中,尤其是在时间序列预测方面,进行了一系列消融研究,发现移除语言模型组件或用基本的注意力层替换并不降低预测结果,甚至在大多数情况下结果有所提升。此外,预训练的语言模型并不比从头开始训练的模型更好,不能准确表示时间序列中的顺序依赖关系,也不能在小样本场景中提供帮助。同时,研究了时间序列编码器,揭示了贴片和注意力结构与基于最新技术的LLM的预测模型效果相似。