Sep, 2024

HUT:一种更具计算效率的哈达玛更新变换微调方法

TL;DR本研究解决了预训练语言模型在微调时面临的计算复杂性问题。提出了一种直接更新变换(UT)范式,构建了从原始参数到更新参数的直接变换,进而引入了哈达玛更新变换(HUT)方法,通过低秩矩阵高效更新权重矩阵,保持原始和更新参数之间的相关性。理论和实验结果表明,HUT在模型质量上与其他参数高效微调方法相当或更优,同时明显降低了计算复杂性。