COLINGMar, 2024

混合 LoRA:大型语言模型的高效多任务调优

TL;DR使用 Mixture-of-LoRAs (MoA) 架构的多任务学习方法,通过培训多个领域特定的 LoRA 模块,采用明确的路由策略和领域标签来防止任务之间的干扰,并最终提高每个个体任务的性能,进而促进领域特定大语言模型(LLMs)的广泛应用。