利用基类信息增强元训练的少样本学习
本文探讨了在整个标签集上进行全分类的简单方法,并通过此方法在多个基准测试中取得了与现有技术相当的表现。同时,本文还对元学习与全分类目标在少样本学习中的权衡进行了深入分析。
Mar, 2020
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
在 Few-shot classification 这个问题上,我们探究了如何训练 MAML 表现得更美好,发现 MAML 需要大量的梯度步骤才能适应少样本分类,敏感于试验时分类标签的赋值,本文提供了多种方法解决其排列不变性。我们命名为 UNICORN-MAML 的方法在 MiniImageNet 和 TieriImageNet 等基准数据集上表现良好,并与许多最新的少样本分类算法不相上下,而不损失 MAML 的简单性。
Jun, 2021
本研究致力于发展一种在少量标记数据情况下对未标记数据进行分类的方法并提出一种新型 Prototypical Networks 和一种使用未标记数据的元学习算法来解实际问题,经过对 Omniglot、miniImageNet 和 ImageNet 进行实验,验证了这些算法可以使预测结果得到显著改进。
Mar, 2018
本研究提出了一种基于元学习框架的元学习 Few-Shot Learning 方法,其中利用一种简单而有效的元 Dropout 机制,防止神经元在元训练阶段过度协同。实验验证了该方法在目标检测领域的有效性。
Oct, 2022
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019
通过引入迁移学习和元学习以及改进的训练过程包括一阶 MAML 算法和图神经网络模型,本文提出的方法在加上数据增强后,在新的跨领域少样本学习基准上实现了 73.78% 的平均准确度,比既有基准提高了 6.51%。
May, 2020
通过引入深层元学习作为组成部分,将深度学习的表示能力融入到元学习中,通过建立一个刻画高级概念的表征空间,可以有效地改进原先的元学习算法,从而实现对于各种少样本图像识别问题中识别率的提升。
Feb, 2018