Feb, 2023
重新审视脱机压缩:超越基于分解的方法,针对 Transformer 语言模型
Revisiting Offline Compression: Going Beyond Factorization-based Methods for Transformer Language Models
Mohammadreza Banaei, Klaudia Bałazy, Artur Kasymov, Rémi Lebret, Jacek Tabor...
TL;DR本篇文章旨在探讨离线压缩方法,并提出了一种基于自编码器的新框架,旨在压缩 transformer 语言模型。实验证明,启用模块间的协作并使用所提出的方法能够显著提高模型性能。