每个任务非常少的样本的元学习
本篇研究了如何在少量标记数据的情况下进行监督学习,通过元学习来利用相似性,结合谱方法,提出了一种优雅的方法来充分利用小型数据集,只需适量的中型数据即可使大数量小标记数据的任务替代大数据任务。
Feb, 2020
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本文提出了利用元任务之间的关系来辅助元学习的方法,分别考虑了在两种类型的元任务对上的关系,并提出了不同的策略来利用它们:1)有不相交类集的两个元任务,2)有相同类集的两个元任务,并给出了相应的新学习目标。然而由于实验中的一些错误,我们选择撤回本文。
Feb, 2020
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
该研究提出了一种易 - 难专家元训练策略和任务难度感知模块,用于优化元学习方法,使其在少样本分类任务上表现更好。该策略优先进行易任务的训练,再进行难任务的强化。实验结果显示,该方法在 miniImageNet 和 tieredImageNetSketch 数据集上可以获得更好的结果。
Jul, 2020
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019