Jun, 2024
零阶极度稀疏LLMs的微调
Zeroth-Order Fine-Tuning of LLMs with Extreme Sparsity
TL;DR本研究通过将稀疏性和量化技术整合到零阶优化(ZO)细调的大型语言模型(LLM)中,从而解决在内存受限环境(如移动电话和笔记本电脑)中使用ZO细调的挑战。研究结果表明,使用ZO对LLM进行0.1%敏感参数细调能优于全面细调,并同时提供加速的速度。此外,结合4位量化技术,ZO对Llama2-7B模型的高效细调在GPU设备上不到8 GB内存的限制下实现了显著降低的延迟。