ICMLAug, 2020

共享弱化变分推理的元学习

TL;DR提出了一种新的摊销变分推断方案来处理实证贝叶斯元学习模型,使用变分自编码器方法在有限的训练数据上学习模型参数的先验分布,我们的框架建议在模型参数的条件先验和变分后验分布之间共享相同的摊销推断网络,相比于 Monte-Carlo 近似的早期工作,我们的变分方法避免了条件先验的崩溃并保留了模型参数的不确定性,并在 miniImageNet、CIFAR-FS 和 FC100 数据集上进行了评估,证明了它比以前的方法具有更好的性能。