Oct, 2024
AlphaLoRA:基于层训练质量分配LoRA专家
AlphaLoRA: Assigning LoRA Experts Based on Layer Training Quality
TL;DR本研究解决了LoRA专家在不同层之间分配不均匀的问题,提出了一种基于重尾自我正则化理论的精细分配策略。研究表明,各层的专家数量与层训练质量密切相关,并且各层之间存在显著差异。AlphaLoRA通过理论指导的无训练方法降低了冗余,在十个语言处理和推理基准上表现出优于或与现有方法相当的性能。