Nov, 2021

使用固定稀疏掩码训练神经网络

TL;DR本文提出了种方法,在深度神经网络的训练过程中,仅更新极少参数,通过一个由具有最大 Fisher 信息的 k 个参数组成的稀疏掩码选择一个参数子集进行多次迭代更新。实验证明,该方法在参数有效转移学习和分布式训练方面的表现可与其他方法相匹配或超过,并且使用的存储和通信资源更少。