BriefGPT.xyz
Mar, 2025
适应性大型语言模型的组合子空间表示微调
Compositional Subspace Representation Fine-tuning for Adaptive Large Language Models
HTML
PDF
Andy Zhou
TL;DR
本研究解决了大型语言模型在多任务适应中出现的交叉技能干扰问题,提出了一种名为组合子空间表示微调(CS-ReFT)的新方法,该方法通过学习多个正交子空间变换来专注于不同技能,并通过轻量级路由器进行组合。研究表明,CS-ReFT在AlpacaEval基准测试中表现优异,有效提高了多任务指令执行的能力,且模型参数需求极低。
Abstract
Adapting
Large Language Models
to multiple tasks can cause
Cross-Skill Interference
, where improvements for one skill degrade another. While methods such as LoRA impose orthogonality constraints at the weight lev
→