May, 2022

基于归因修剪的多任务语言模型任务特定压缩

TL;DR本研究提出了一种新颖的多任务语言模型压缩方法,使用剪枝方法,通过使用属性方法确定哪些神经元对于执行特定任务是必不可少的,然后对于不重要的神经元进行任务特定的修剪,进一步将该方法扩展到适用于低资源和无监督的场景。通过实验可以发现,该压缩方法不需要训练,使用少量计算资源,且不会破坏语言模型的预先训练的知识,且可以显着优于基线修剪方法,并且在未见过领域的情况下仍然保持性能。