本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约 1% 的性能。
Mar, 2024
通过引入迁移学习和元学习以及改进的训练过程包括一阶 MAML 算法和图神经网络模型,本文提出的方法在加上数据增强后,在新的跨领域少样本学习基准上实现了 73.78% 的平均准确度,比既有基准提高了 6.51%。
May, 2020
本文提出在 few-shot classification 问题中采用深度神经网络集成来解决分类器高方差的问题,通过引入新策略鼓励网络相互合作来提高分类性能,实验结果表明该方法在 mini-ImageNet 和 CUB 数据集上显著优于当前的 meta-learning 技术。
Mar, 2019
本研究旨在提出一种新的训练机制,从元学习的角度调整损失函数和数据增强的动态,以实现在少量样本下精准检测物体的目标,实验结果显示,在 Pascal VOC 和 MS-COCO 数据集上,该方法相较于基于 fine-tuning 和元学习的现有模型都取得了显著的进展。
Apr, 2023
本文探讨了在整个标签集上进行全分类的简单方法,并通过此方法在多个基准测试中取得了与现有技术相当的表现。同时,本文还对元学习与全分类目标在少样本学习中的权衡进行了深入分析。
Mar, 2020
这篇研究论文旨在通过优化跨熵损失训练深度网络,提出一种基准模型来解决 few-shot 学习问题,并通过使用更多的元训练类来提高准确性,同时提出衡量 few-shot 任 务难度的度量标准。
Sep, 2019
本研究致力于发展一种在少量标记数据情况下对未标记数据进行分类的方法并提出一种新型 Prototypical Networks 和一种使用未标记数据的元学习算法来解实际问题,经过对 Omniglot、miniImageNet 和 ImageNet 进行实验,验证了这些算法可以使预测结果得到显著改进。
Mar, 2018
利用梯度元学习方法,以残差神经网络作为元学习代理来进行少样本时间序列分类问题的模型训练,实现在少量目标任务训练样本下对来自不同领域的目标任务进行快速预测,在 UCR TSC Archive 数据集中实现较强的表现。
本文提出了一种简单而有效的方法,通过在每个参数的内部循环优化中随机删除梯度来缓解基于梯度的元学习的过拟合风险,从而改善了深度神经网络在新任务上的泛化性能。 作者在大量计算机视觉任务上进行了实验和分析,证明了梯度丢失规范化可以缓解过拟合问题并提高各种基于梯度的元学习框架的性能。
Apr, 2020