BriefGPT.xyz
Oct, 2024
时间序列基础模型的上下文微调
In-Context Fine-Tuning for Time-Series Foundation Models
HTML
PDF
Abhimanyu Das, Matthew Faw, Rajat Sen, Yichen Zhou
TL;DR
本研究针对时间序列基础模型在零样本预测中的成功,提出了一种时间序列基础模型的上下文微调方法。通过引入多个相关时间序列示例,显著提升了目标时间序列的预测性能,研究表明该方法在流行预测基准上的表现优于传统的监督深度学习及统计模型,并且与针对特定域的微调模型相媲美。
Abstract
Motivated by the recent success of
Time-Series
Foundation Models
for
Zero-Shot Forecasting
, we present a methodology for $\textit{
→