Jan, 2025
上下文对齐:激活和增强大语言模型在时间序列中的能力
Context-Alignment: Activating and Enhancing LLM Capabilities in Time
Series
TL;DR该研究针对现有方法忽视大语言模型(LLMs)在自然语言处理中的深层逻辑和结构理解,提出了一种新的研究范式“上下文对齐”。通过结构对齐和逻辑对齐的方式,该研究展示了如何利用双尺度上下文对齐图神经网络(DSCA-GNNs)来提升LLMs处理时间序列数据的能力,尤其在少样本和零样本预测中表现出显著的效果,显示出上下文对齐在各类任务中的重要性。