Aug, 2019

使用扭曲梯度下降的元学习

TL;DR本文提出了一种称为“WarpGrad”的方法,它通过交错使用非线性层次条件,通过元学习一个有效参数化的预处理矩阵来促进跨任务分布梯度下降,从而与现有方法相比解决了存在的问题,包括few- shot、标准监督、连续和强化学习。