Feb, 2024
LLMs学习动力系统的控制原则,揭示上下文中的神经缩放定律
LLMs learn governing principles of dynamical systems, revealing an
in-context neural scaling law
TL;DR预训练的大型语言模型(LLMs)在进行零-shot任务(包括时间序列预测)时表现出惊人的效果,本文研究了LLMs在从事受物理规律控制的动力系统情景下外推行为的能力,结果显示LLaMA2在无需微调或提示工程的情况下能准确预测动力系统时间序列,此外,学习到的物理规律的准确性随输入环境窗口长度的增加而增加,揭示了一种上下文版本的神经缩放定律,并提出了一种灵活高效的算法,可直接从LLMs中提取多位数的概率密度函数。