结合高效参数模块提高少样本迁移准确性的效果吗?
提出了一个称为 SuperLoRA 的广义框架,将不同的 LoRA 变体统一并扩展,通过引入分组、折叠、洗牌、投影和张量分解等方法,SuperLoRA 相对于其他 LoRA 变体具有更高的灵活性,在转移学习任务中表现出卓越的性能,尤其在极低参数的情况下表现出色。
Mar, 2024
LoRAHub 是一个用于组合多个训练在不同任务上的 LoRA 模块的战略性框架,旨在实现在未知任务上的适应性性能,可以有效地模拟在少样本情况下的上下文学习表现,无需上下文示例。
Jul, 2023
提出了一种增量参数分配方法 IncreLoRA,通过根据每个模块的重要性得分,在训练期间自适应地添加可训练参数,以应对有限训练条件下参数剪枝的限制,实现更高的参数效率,并在低资源设置下显著优于基准方法。
Aug, 2023
本研究通过使用 Parameter-Efficient Fine-Tuning 中的 Low-Rank Adaptation (LoRA) 探索了复杂且未被充分研究的多语言摘要任务的潜力,研究发现 LoRA 在低数据情况和跨语言转移中表现出色,当模型增大时,LoRA 和完全微调之间的性能差距减小,同时,继续训练 LoRA 获得了最佳的少样本跨语言转移表现。
Nov, 2023
本文主要研究在低资源情况下,检测仇恨恶搞表情包的方法。通过利用 LoRA 模块和大型语言模型,本研究提出一种模块化网络来增强在少样本学习情境下的仇恨恶搞表情包检测性能和泛化能力。
Feb, 2024
通过使用合成数据集,我们提出了一种新的方法来无损地将低秩适配器模块从一个基准模型转移到另一个基准模型,这项方法能够在不同的基准模型族之间,甚至不同的参数优化方法之间,在各种任务上实现低秩适配器的转移。
May, 2024
使用动态融合权重的 LoRA-Flow 方法在六个生成任务中实验证明,相较于基准方法的任务级融合权重,我们的方法始终表现优异,强调了引入动态融合权重对于 LoRA 组合的必要性。
Feb, 2024
通过解码为中心的视角,本研究提出了两种无需训练的方法:LoRA Switch 和 LoRA Composite,分别通过在去噪步骤中交替使用不同的 LoRA 和同时整合所有的 LoRA,以更好地指导图像合成,从而提高了综合性能,在组合中增加 LoRA 的数量时尤为明显。
Feb, 2024
本研究探讨了一种改进的 LoRA 优化方法,称为 PeriodicLoRA(PLoRA),通过多次积累低秩更新矩阵来提高更新秩,并引入一种基于动量的卸载策略以减轻训练不稳定性。实验结果表明,PLoRA 具有更强的学习能力,最高可达到 LoRA 学习能力的 1.8 倍,但不增加内存使用。
Feb, 2024
利用对比学习以鼓励专家学习不同特征的方式,我们介绍了一种新的参数效率微调方法 MoELoRA,它在数学推理和常识推理基准测试中表现显著优于 LoRA 和 GPT-3.5。
Feb, 2024