ICMLOct, 2018

元学习快速上下文适应

TL;DR提出了 CAVIA 以进行元学习,这是 MAML 的一种简单扩展,它不容易出现元过拟合,易于并行化,并且更易于解释。CAVIA 将模型参数分成两个部分:服务于模型的上下文参数在个别任务上进行调整,并且共享参数进行元培训并跨任务共享。实验证明,CAVIA 在回归,分类和强化学习方面优于 MAML。我们的实验还突出显示了当前基准测试的弱点,在某些情况下需要适应的量很小。