Mar, 2025

通过上下文微调教会大型语言模型如何学习

TL;DR本研究解决了大型语言模型(LLMs)在迅速变化领域中知识更新和新领域推理能力不足的问题。提出了一种新的上下文微调方法,利用模拟人类认知策略的指令提示来引导模型学习过程,从而增强模型对领域特定知识的理解。实验证明,这一简单有效的改进显著提升了LLMs在医学和金融领域快速微调新数据集的能力。