Jan, 2024

LLaMA Pro:带块扩展的渐进 LLaMA

TL;DR通过扩展 Transformer blocks 的方法,我们提出了一种新的 LLMs 后预训练方法,通过仅使用新的语料库调整扩展块,从而在不造成灾难性遗忘的情况下高效有效地改进模型的知识,实现在各种环境中高效运行的先进语言代理的开发。