Nov, 2023

Tied-Lora: 提升 Lora 的参数效率通过权重绑定

TL;DR我们提出了 Tied-LoRA,这是一个简单的范例,利用权重绑定和选择性训练来进一步提高 Low-rank 适应(LoRA)方法的参数效率。我们的研究包括将可行的参数训练 / 冻结与权重绑定相结合,以寻找性能和可训练参数数量之间的最佳平衡。通过涵盖各种任务和两个基本语言模型的实验,我们提供了分析,揭示了效率和性能之间的权衡。我们的实验发现了一种特定的 Tied-LoRA 配置,通过仅使用标准 LoRA 方法所使用参数的 13%,在几个任务上表现出可比较的性能。