BriefGPT.xyz
Ask
alpha
关键词
mix-of-expert models
搜索结果 - 1
MixLoRA:基于 LoRA 的专家混合大语言模型微调增强
提出了一种基于 LoRA 的资源高效稀疏 MoE 模型构建方法,名为 MixLoRA,能够在消费级 GPU 上实现多个专家模型的并行微调,减少了 GPU 内存消耗 41% 和训练过程中的延迟 17%。
PDF
2 months ago
Prev
Next