BriefGPT.xyz
Oct, 2024
LoRA汤:合并LoRA以进行实际技能组合任务
LoRA Soups: Merging LoRAs for Practical Skill Composition Tasks
HTML
PDF
Akshara Prabhakar, Yuanzhi Li, Karthik Narasimhan, Sham Kakade, Eran Malach...
TL;DR
本研究解决了在缺乏目标任务训练数据的情况下如何有效合并不同的LoRA模块以实现技能组合的问题。通过提出连接LoRA(CAT)的方法,研究表明其在解决需要组合多项技能的任务时,比现有模型和数据融合技术表现优越,尤其在数学词题上,性能提升达到平均43%和12%。
Abstract
Low-Rank Adaptation (
LoRA
) is a popular technique for
parameter-efficient fine-tuning
of
large language models
(LLMs). We study how differ
→