EMNLPOct, 2022

AlphaTuning: 大规模预训练语言模型的量化感知参数高效适应

TL;DR本研究旨在将后训练量化与仅对定向任务的一些部分进行量化的精细调整相结合,以使模型更加快速且效率更高,我们提出了 AlphaTuning 控制模型的大小,通过二进制编码量化、调整二进制参数和针对下游任务进行唯一的倍数调整,证明我们的方法在 11 种下游任务上使用 4 位或更高的量化精度时,仅使用总参数数量的 1/10 进行细调。