DLoRA:大型语言模型的分布式参数高效微调解决方案
本研究通过探索在语言任务中不同联邦学习设置中应用参数高效微调(PEFT)方法的机会和挑战,提出了一种名为 SLoRA 的方法,通过一种新颖的数据驱动初始化技术来克服在高异构数据环境中 LoRA 的关键限制,实现与全面微调可比的性能,并以大约 1% 的密度实现显著稀疏更新,同时将训练时间减少高达 90%。
Aug, 2023
本研究介绍了动态低秩适应(DoRA)方法,该方法在训练过程中将高秩的低秩层分解为结构化的单秩元件,允许根据任务重要性动态修剪参数预算,以充分利用有限的参数预算,并且实验证明 DoRA 方法在与 LoRA 和完全模型微调相比具有竞争性的性能和优于各种强基线模型的结果。
May, 2024
通过一系列实验,我们发现了两个关键的见解,揭示了 LoRA 的训练和参数效率问题,基于这些见解,我们开发了 HydraLoRA,这是一个具有不对称结构的 LoRA 框架,消除了对领域专业知识的需求,我们的实验表明,HydraLoRA 优于其他 PEFT 方法,即使在训练和推断阶段依赖领域知识的情况下。
Apr, 2024
通过有选择地微调部分参数以降低计算需求,提出了一种在临床领域中适应预训练语言模型的方法,并通过与 Downstream LLaMA-LoRA 相结合,在多个临床预测任务上取得了最先进的 AUROC 得分提升,并在大规模多标签分类任务中观察到 6-9% 的 AUROC 得分改善。
Jul, 2023
通过实施共享低秩适应(ShareLoRA)的方式,本研究介绍了一种优化预训练语言模型(PLMs)的参数有效微调(PEFT)的方法。在不同层级上策略性地部署 ShareLoRA,并对 self-attention 层的 Query、Key 和 Value 组件进行适应性调整,我们实现了训练参数数量和内存使用的大幅减少。同时,ShareLoRA 不仅在 RoBERTa、GPT-2、LLaMA 和 LLaMA2 等多种模型上保持了模型性能,还在分类和生成任务中表现出鲁棒性。相比标准的 LoRA 应用,它表现出卓越的迁移学习能力,并通过在层级间共享权重来减轻过拟合。我们的发现证明,ShareLoRA 能够有效提升参数效率,同时在不同的语言模型架构上保证可扩展和高质量的性能。
Jun, 2024
利用对比学习以鼓励专家学习不同特征的方式,我们介绍了一种新的参数效率微调方法 MoELoRA,它在数学推理和常识推理基准测试中表现显著优于 LoRA 和 GPT-3.5。
Feb, 2024
通过结合基于不确定性的主动学习和 LoRA,本论文提出了一种新的方法,动态度量不确定性缺口且在 LoRA 训练中引入正则化方法,这种方法在三个复杂推理任务上优于现有的基线模型。
Mar, 2024
MELoRA 是一种采用较少可训练参数但保持较高秩的迷你低秩适配器,用于针对预训练大型语言模型进行性能优化的方法。实验证明,在自然语言理解和指令跟随任务上,相较于低秩适配器 LoRA,MELoRA 在拥有 8 倍较少可训练参数时表现更好,而在指令跟随任务上拥有 36 倍较少可训练参数时也表现更好,证明了 MELoRA 的有效性。
Feb, 2024
基于预训练语言模型 (PLMs) 的联邦学习 (federated learning) 中,引入参数高效微调 (PEFT) 方法,通过奇异值分解 (SVD) 初始化适配器模块的 FeDeRA,在多个任务和数据集上实验,与全参数微调 (FT) 方法相比,FeDeRA 表现出色,训练时间显著缩短。
Apr, 2024
提出了一种用于多模态、多任务迁移学习的新型参数高效调参方法(PEFT)框架,它通过 LoRA、BitFit 和 IA3 等技术,在几乎不需要可训练参数和 GPU 内存的情况下,展示了与预训练模型完全微调相当的性能,然而,在多模态微调中,经常需要进行架构修改或完全微调。为了解决这个问题,我们提出了 Context-PEFT,它根据令牌的领域学习不同的适配器参数组,这种方法使得可以实现类似 LoRA 的权重注入,而不需要额外的架构修改。我们的方法在 COCO 字幕任务上进行评估,在类似的数据限制下,优于完全微调,并同时提供了更高的参数效率和计算经济性的解决方案。
Dec, 2023