Feb, 2024

LoTR:低张量秩权重适应

TL;DR本文提出了一种新颖的参数高效微调方法LoTR,通过张量分解的形式对参数进行梯度更新,进而构建每层的低秩适配器。LoTR在低秩张量表示下对一系列层进行压缩,尤其适用于深度模型,相比于LoRA具有更好的参数效率,且核心张量不依赖于原始权重维度,可以变得任意小,可实现极为廉价快速的下游微调。