BriefGPT.xyz
Sep, 2024
面向长时间序列的基础模型
Towards Long-Context Time Series Foundation Models
HTML
PDF
Nina Żukowska, Mononito Goswami, Michał Wiliński, Willa Potosnak, Artur Dubrawski
TL;DR
本研究解决了当前时间序列基础模型在处理长时间序列和多变量数据时的局限性。通过对语言和时间序列领域的上下文扩展技术进行系统比较,提出了一种新颖的压缩记忆机制,使得仅使用编码器的时间序列基础模型能够有效建模内部变量间的依赖关系。我们的研究表明,这种方法显著提升了模型在处理长时间序列时的性能,尤其在医疗等领域的应用具有重要影响。
Abstract
Time Series
Foundation Models
have shown impressive performance on a variety of tasks, across a wide range of domains, even in zero-shot settings. However, most of these models are designed to handle short univar
→