关键词parameter-efficient fine-tuning techniques
搜索结果 - 2
- 通过动态参数调整彻底改变大型语言模型训练
在大语言模型时代,提高计算资源的有效利用需求变得非常重要。本文基于 LoRA 精调方法,引入了一种新颖的参数高效训练技术,通过频繁改变可训练参数的一部分,提高了有效的预训练。我们的方法不仅在预训练阶段实现了内存和计算开销减少,与当前最先进的 - 分割与合并:通过稀疏训练释放视觉适配器的潜力
通过提出混合稀疏适配器(MoSA)作为一种新颖的适配器调整方法,旨在充分发挥每个适配器参数的潜力,本研究对一系列 27 个视觉任务进行了广泛实验证明,MoSA 始终比其他适配器调整方法和基准线方法表现更好,并在低资源和多任务设置的两个具有挑