Jun, 2024

零阶极度稀疏 LLMs 的微调

TL;DR本研究通过将稀疏性和量化技术整合到零阶优化(ZO)细调的大型语言模型(LLM)中,从而解决在内存受限环境(如移动电话和笔记本电脑)中使用 ZO 细调的挑战。研究结果表明,使用 ZO 对 LLM 进行 0.1% 敏感参数细调能优于全面细调,并同时提供加速的速度。此外,结合 4 位量化技术,ZO 对 Llama2-7B 模型的高效细调在 GPU 设备上不到 8 GB 内存的限制下实现了显著降低的延迟。