Jan, 2024
大规模语言模型的稀疏微调扩展
Scaling Sparse Fine-Tuning to Large Language Models
TL;DR大型语言模型(Large Language Models) 在指令或人类反馈方面很难进行全面的微调,但参数高效稀疏微调(sparse fine-tuning)的方法已经在性能上取得了一定的成果,本文将稀疏微调方法扩展到像LLaMA 2 7B和13B这样的最先进的LLMs,实验证明对指令调整进行稀疏微调通常比流行的参数高效微调方法如LoRA表现更好,并且在运行时间上可比较。