Jul, 2024

内部化循环提示在大型语言模型微调中节约推理成本

TL;DR通过渐进性微调将提示知识内化到模型参数中,我们的方法能够使LLMs在新任务中模拟人类学习过程,并逐渐适应该任务,从而减少推理标记超过90%、加速推理4.2倍、节省88.3%的费用。