BriefGPT.xyz
Mar, 2025
适应性大语言模型的组合子空间表示微调
Compositional Subspace Representation Fine-tuning for Adaptive Large Language Models
HTML
PDF
Andy Zhou
TL;DR
本研究针对大语言模型在多任务适应中可能导致的跨技能干扰问题,提出了一种新的基于表示的方法CS-ReFT。该方法通过学习多个正交子空间变换,有效地隔离隐藏状态中的子空间编辑,从而提高了多任务指令跟随的能力。研究表明,CS-ReFT能够有效避免跨任务冲突,显著提升性能,且所需模型参数极少。
Abstract
Adapting
Large Language Models
to multiple tasks can cause
Cross-skill Interference
, where improvements for one skill degrade another. While methods such as LoRA impose orthogonality constraints at the weight lev
→