Oct, 2023

无监督表示学习辅助半监督元学习

TL;DR通过一次性无监督元学习方法,利用增强样本作为查询集来学习训练样本的潜在表示,并通过温度缩放的交叉熵损失在元学习的内循环中防止过拟合。该方法是模型无关的,能够提高任何元学习模型的准确性,并通过在初始化和快速调适阶段采用目标有监督元学习的方式,在 Omniglot 和 mini-Imagenet 数据集上展示了该方法的性能。此外,具备该初始化的元学习模型可以在较少的训练样本下达到令人满意的准确性。