Oct, 2024

DLP-LoRA:用于大型语言模型的动态轻量级插件以实现高效任务特定LoRA融合

TL;DR本研究解决了大型语言模型(LLMs)在特定领域微调时高资源消耗的问题,提出了一种动态轻量级插件DLP-LoRA,通过使用仅5M参数的小型MLP模块,在句子层面动态融合多个LoRA,提高了推理效率。实验结果显示,DLP-LoRA在多个任务上表现优异,平均准确率达92.34%,并在问答数据集上显著提高了BLEU和ROUGE分数,展现出高效的多任务适应能力。