BriefGPT.xyz
大模型
Ask
alpha
关键词
pre-trained language model compression
搜索结果 - 1
ACL
基于矩阵积算子的预训练语言模型压缩的轻量级微调
提出了一种基于量子多体物理中的矩阵积算符(简称 MPO)的新型预训练语言模型压缩方法,其可以将原始的矩阵分解成中心张量和辅助张量,通过仅更新辅助张量的参数进行微调并为 MPO 结构设计优化算法,可应用于原始或压缩的语言模型以实现更轻量级的网
→
PDF
3 years ago
Prev
Next