Jan, 2024

TQCompressor:通过排列改进神经网络中的张量分解方法

TL;DR我们介绍了一种新的神经网络模型压缩方法 TQCompressor,并使用改进的张量分解技术解决预训练语言模型在 NLP 任务中计算和存储需求方面的挑战。我们通过置换增强 Kronecker 分解,成功降低了模型表示能力的损失。我们将该方法应用于 GPT-2$_{small}$,得到了 TQCompressedGPT-2 模型。与 GPT-2$_{small}$ 的 124 百万参数相比,TQCompressedGPT-2 模型仅有 81 百万参数。我们公开提供了 TQCompressedGPT-2 模型。我们通过多步知识蒸馏的训练策略进一步提升了 TQCompressedGPT-2 的性能,仅使用 3.1%的 OpenWebText 语料库。在比较评估中,TQCompressedGPT-2 优于 DistilGPT-2 和 KnGPT-2,标志着在资源受限环境中高效有效地部署模型的进展。