Oct, 2021
学习何处学习:元学习和持续学习中的梯度稀疏性
Learning where to learn: Gradient sparsity in meta and continual learning
Johannes von Oswald, Dominic Zhao, Seijin Kobayashi, Simon Schug, Massimo Caccia...
TL;DR通过使用稀疏梯度下降的元学习方法,可以改善神经网络权重初始化的泛化能力,从而实现少量权重改变导致低泛化误差,并且这种选择性稀疏性机制使得元学习在 Few-shot 和 Continual 学习等问题上更加高效。