Mar, 2025

适应性大语言模型的组合子空间表示微调

TL;DR本研究针对大语言模型在多任务适应中可能导致的跨技能干扰问题,提出了一种新的基于表示的方法CS-ReFT。该方法通过学习多个正交子空间变换,有效地隔离隐藏状态中的子空间编辑,从而提高了多任务指令跟随的能力。研究表明,CS-ReFT能够有效避免跨任务冲突,显著提升性能,且所需模型参数极少。