Mar, 2024

AFLoRA:大型模型参数高效微调中自适应冻结低秩适应

TL;DR提出一种新的参数高效微调方法(AFLoRA),通过冻结权重张量并添加平行的可训练低秩矩阵路径(down-projection和up-projection矩阵),在微调过程中根据冻结得分逐渐冻结投影矩阵,以减少计算量并减轻过拟合,实验证明与GLUE基准相比,可以达到最先进的性能,平均性能提高了0.85%,同时平均可训练参数减少了9.5倍,并且与类似的参数高效微调方法相比速度提高了1.86倍。提供了LoRA路径在不同模块的可训练性要求以及投影矩阵的冻结时间表的见解。