Jan, 2022

模型压缩能提高自然语言处理的公平性吗

TL;DR本文首次研究了模型压缩技术对生成性语言模型的毒性和偏见的影响,我们在 GPT2 模型上测试了知识蒸馏和剪枝方法,发现模型蒸馏后有毒性和偏见的减少,这个结果可以被解释为模型压缩的正则化技术,我们的工作不仅可以作为压缩模型安全部署的参考,而且将 “压缩作为正则化” 的讨论扩展到了神经语言模型领域,并暗示了使用压缩来开发更加公平的模型的可能性。