本文提出了一个名为UMTRA的算法,它在分类任务中执行无监督,模型无关的元学习,通过随机采样和增强来创建合成的训练任务,且只需要一定少量的标签。该算法在几项基准测试上表现优异。
Nov, 2018
提出了一个名为Meta-Dataset的大规模基准数据集,用于训练和评估模型在少样本分类问题上的性能,并探讨模型对不同训练来源的泛化能力和元学习的好处。
Mar, 2019
本文提出了一个基于对元学习与传统监督学习之间联系的重新审视和加强的原则性统一框架,通过把任务特定数据集和目标模型看作(特征、标签)样本,我们可以把许多元学习算法归约到监督学习的实例中,进一步提高了元学习的表现。
Feb, 2020
本研究关注元学习及其在few-shot分类任务中达到优秀表现的特征提取器,提出元学习模型表现优秀的原因并给出一种正则化方法来改进标准训练方法,在很多情况下,该方法不仅可超越元学习,且快速度又快。
本文探讨了在整个标签集上进行全分类的简单方法,并通过此方法在多个基准测试中取得了与现有技术相当的表现。同时,本文还对元学习与全分类目标在少样本学习中的权衡进行了深入分析。
Mar, 2020
本研究提出,以meta-training data为基础,先学习一个监督或自我监督的表征,再在表征上训练线性分类器,可以优于现有的few-shot learning方法。自教学技术可以进一步改善。这表明好的学习嵌入模型比复杂的元学习算法更有效。
本篇论文提出了基于无监督元学习(UML)的通用嵌入向量生成方式用于few-shot learning,并结合数据增强、半标准化相似度、混淆实例合成、任务相关嵌入变换等技术,取得了显著优于以前UML方法和甚至优于有监督方法的成果。
Nov, 2020
本文介绍了一种名为MetaQDA的贝叶斯元学习模型,其特点是在元学习分类器层面上实现few-shot学习。实验表明,这种方法在跨领域few-shot学习中具有鲁棒的性能,并能更好地预测不确定性。
Jan, 2021
本研究对元学习和迁移学习两种方法在小样本学习领域的应用进行了交叉研究,以 Meta-Dataset 和 Visual Task Adaptation Benchmark 两个基准测试集进行了测试,发现大规模的迁移学习方法表现最佳。
Apr, 2021
该论文介绍了元学习在深度学习中的应用及其近期发展,涵盖度量、记忆、基于学习等方法,并探讨了当前的挑战和未来的研究方向。
Mar, 2023