ACLJun, 2021

基于矩阵积算子的预训练语言模型压缩的轻量级微调

TL;DR提出了一种基于量子多体物理中的矩阵积算符(简称 MPO)的新型预训练语言模型压缩方法,其可以将原始的矩阵分解成中心张量和辅助张量,通过仅更新辅助张量的参数进行微调并为 MPO 结构设计优化算法,可应用于原始或压缩的语言模型以实现更轻量级的网络和显著减少微调参数。