SplitLoRA:大型语言模型的分割参数高效微调框架
本研究通过探索在语言任务中不同联邦学习设置中应用参数高效微调(PEFT)方法的机会和挑战,提出了一种名为 SLoRA 的方法,通过一种新颖的数据驱动初始化技术来克服在高异构数据环境中 LoRA 的关键限制,实现与全面微调可比的性能,并以大约 1% 的密度实现显著稀疏更新,同时将训练时间减少高达 90%。
Aug, 2023
FlexLoRA 是一种用于 LLM fine-tuning 的聚合方案,通过动态调整本地 LoRA 等级并使用奇异值分解(SVD)进行权重重新分配,充分利用了异构客户端资源。在涉及超过 1,600 个客户端执行多样化的自然语言处理(NLP)任务的实验中,证实了 FlexLoRA 的有效性,联邦全局模型在下游 NLP 任务性能方面平均提高了 3.1%。FlexLoRA 的实用性进一步强调了其与现有的基于 LoRA 的联邦学习方法的无缝集成和理论分析,提供了一种可扩展的、隐私保护的 LLM 联邦调整路径。
Feb, 2024
提出了一种基于模型切片的安全分布式 LLM 方法,使用可信执行环境(TEE)在客户端和服务器端部署,并通过轻量级加密在 TEE 和一般环境中执行安全通信,进一步降低设备成本同时提高模型性能和准确性。
Jan, 2024
通过实施共享低秩适应(ShareLoRA)的方式,本研究介绍了一种优化预训练语言模型(PLMs)的参数有效微调(PEFT)的方法。在不同层级上策略性地部署 ShareLoRA,并对 self-attention 层的 Query、Key 和 Value 组件进行适应性调整,我们实现了训练参数数量和内存使用的大幅减少。同时,ShareLoRA 不仅在 RoBERTa、GPT-2、LLaMA 和 LLaMA2 等多种模型上保持了模型性能,还在分类和生成任务中表现出鲁棒性。相比标准的 LoRA 应用,它表现出卓越的迁移学习能力,并通过在层级间共享权重来减轻过拟合。我们的发现证明,ShareLoRA 能够有效提升参数效率,同时在不同的语言模型架构上保证可扩展和高质量的性能。
Jun, 2024
通过一系列实验,我们发现了两个关键的见解,揭示了 LoRA 的训练和参数效率问题,基于这些见解,我们开发了 HydraLoRA,这是一个具有不对称结构的 LoRA 框架,消除了对领域专业知识的需求,我们的实验表明,HydraLoRA 优于其他 PEFT 方法,即使在训练和推断阶段依赖领域知识的情况下。
Apr, 2024
本研究通过使用 Parameter-Efficient Fine-Tuning 中的 Low-Rank Adaptation (LoRA) 探索了复杂且未被充分研究的多语言摘要任务的潜力,研究发现 LoRA 在低数据情况和跨语言转移中表现出色,当模型增大时,LoRA 和完全微调之间的性能差距减小,同时,继续训练 LoRA 获得了最佳的少样本跨语言转移表现。
Nov, 2023
通过减少可训练参数,我们提出了一种基于模拟退火的联邦学习与低秩适应(SA-FedLoRA)方法,旨在在大规模预训练模型的微调中实现更高的收敛性和通信效率。实验结果表明,SA-FedLoRA 在联邦学习中是一种高效的方法,相比 FedAvg,可以达到更好的性能,通信参数减少高达 93.62%。
May, 2024
LoRA 是一种使用较少参数和内存的训练方法,研究表明,在低秩适配器的支持下,LoRA fine-tuned 模型在多个任务上表现超过基准模型 34 个百分点和 GPT-4 10 个百分点;此外,他们开发了 LoRAX 多模型推理服务器,支持多个 LoRA fine-tuned 模型在单个 GPU 上运行,以展示使用多个专用 LLM 相对于单个通用 LLM 的质量和成本效益。
Apr, 2024
利用大型语言模型的计算和存储需求,我们提出了 LoRA-SP (简化的部分参数适应) 方法,它利用 LoRA 框架中的随机半选择性参数冻结来平衡预训练知识的保留和任务特定优化的适应性。通过随机机制,LoRA-SP 确定要更新或冻结的参数,显著减少计算和存储需求,同时不损害模型性能。我们在多个基准自然语言处理任务上评估了 LoRA-SP,展示了它在与传统的全参数微调和其他参数高效技术相比,以较低的资源消耗实现竞争性性能的能力。LoRA-SP 的创新方法不仅有助于在资源有限的环境中部署高级自然语言处理模型,还为有效和高效的模型适应策略开辟了新的研究途径。
Feb, 2024
提出了一个称为 SuperLoRA 的广义框架,将不同的 LoRA 变体统一并扩展,通过引入分组、折叠、洗牌、投影和张量分解等方法,SuperLoRA 相对于其他 LoRA 变体具有更高的灵活性,在转移学习任务中表现出卓越的性能,尤其在极低参数的情况下表现出色。
Mar, 2024