Jun, 2024

AdaPTwin:基于 Transformers 的产品双胞胎的低成本自适应压缩

TL;DR在资源受限的环境中,我们提出一种名为 AdaPTwin 的低秩自适应压缩技术,它可以压缩转换器注意层中的产品相关权重矩阵对,以降低大型转换器模型的计算和存储开销,并实现对新说话人和声学环境的泛化性能。这种压缩技术只需 8 小时的语音数据进行微调,时间不到 20 分钟,与其他压缩方法相比成本极低,并且在压缩 Whisper 和 Distil-Whisper 模型时,词错误率仅增加不到 2%。