BriefGPT.xyz
Ask
alpha
关键词
sparse gradient descent
搜索结果 - 1
学习何处学习:元学习和持续学习中的梯度稀疏性
通过使用稀疏梯度下降的元学习方法,可以改善神经网络权重初始化的泛化能力,从而实现少量权重改变导致低泛化误差,并且这种选择性稀疏性机制使得元学习在 Few-shot 和 Continual 学习等问题上更加高效。
PDF
3 years ago
Prev
Next