Jan, 2024

LLM 中实施 1 + N 多任务微调模式的框架 —— 使用 CGC-LORA 算法

TL;DR通过使用一种新颖的 Customized Gate Control (CGC) Low-rank Adaptation (LoRA) 算法,我们提出了一个统一的框架,在大规模语言模型(LLMs)中实现了一种 1 + N 多任务微调模式,通过加入两种类型的专家,使 LoRA 与 MTL 相适应,并且在两个公共数据集上表现得比所有基准模型获得更高的评估分数。