BriefGPT.xyz
Ask
alpha
关键词
distributed fine-tuning
搜索结果 - 2
IJCAI
LLMem:用于微调预训练 LLM 模型的估算 GPU 内存使用量
LLMem 是一种在有限硬件条件下对大型语言模型进行微调的解决方案,通过估计多个 GPU 上分布式微调方法的 GPU 内存消耗,并确定最优方法,有效应对 GPU 内存限制和快速微调的挑战。
PDF
3 months ago
AutoFreeze:自动冻结模型块以加速微调
本研究提出了 AutoFreeze 系统,通过自适应选择训练的层并设计了两种执行模式,实现了在保持模型准确性的同时加速 fine-tuning,使用缓存技术在单个 GPU 上能够改善 fine-tuning 的速度达到最多 2.55 倍,在
→
PDF
3 years ago
Prev
Next