Jan, 2024

语音的PEFT: 揭示最佳部署、合并策略和集成技术

TL;DR通过在不同层次中插入不同的Parameter-Efficient Fine-Tuning方法并采用Differentiable Architecture Search (DARTS)进行比较,我们研究了PEFT方法的最佳途径和放置方式;同时,我们还探索了使用集成学习来提升PEFT策略的多样性。实验结果表明,DARTS并没有超越基准方法的表现,而将PEFT方法插入到自监督学习模型的所有层中的集成学习方法表现更佳。我们的统计证据表明,不同的PEFT方法以不同的方式进行学习,这种差异能够解释为什么通过集成学习的协同融合比单独进行层级优化更有效地利用它们的独特学习能力。