本文介绍Meta-SGD,一种高容量,容易训练的元学习器,可以在监督学习和强化学习中初始化和适应任何可微分的学习器,在单次元学习过程中学习学习器初始化、更新方向和学习率,相较于LSTM和MAML在少样本学习上表现更加具有竞争性。
Jul, 2017
本文提出了一种联合训练方法,将迁移学习和元学习相结合,从而在少分类、少样本以及多分类、多样本任务中均可获得更好的泛化性能。
Sep, 2018
本文提出了利用元任务之间的关系来辅助元学习的方法,分别考虑了在两种类型的元任务对上的关系,并提出了不同的策略来利用它们:1)有不相交类集的两个元任务,2)有相同类集的两个元任务,并给出了相应的新学习目标。然而由于实验中的一些错误,我们选择撤回本文。
Feb, 2020
本文探讨了在整个标签集上进行全分类的简单方法,并通过此方法在多个基准测试中取得了与现有技术相当的表现。同时,本文还对元学习与全分类目标在少样本学习中的权衡进行了深入分析。
Mar, 2020
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020
本文提出了一种新颖的元学习算法NestedMAML,该算法可以学习分配给每个训练任务或实例的权重,并在元训练阶段应用,从而有效地缓解了不想要的任务或实例的影响,比现有的元学习算法都更鲁棒。
Nov, 2020
本研究提出了用元学习结合知识蒸馏的方法(MetaDistil),可以在固定教师网络期间更好地向学生网络转移知识。在多个实验基准上,MetaDistil可以比传统的知识蒸馏算法产生更显著的改进,并且对不同的学生容量和超参数的选择不太敏感,有助于在不同的任务和模型上使用知识蒸馏。
Jun, 2021
本文提出了一种元知识蒸馏(MKD)方法,利用可学习的元温度参数进行元学习,通过适应学习目标的梯度自适应地调整元参数以解决知识蒸馏(KD)的退化问题,从而在不同数据集规模、不同网络和不同数据扩增类型上实现了与当下最优秀方法相当的性能表现。
Feb, 2022
提出一种名为 Meta-LTH 的新型元学习方法,使用magnitude pruning 科技进行必要连接的生成,其可有效解决 few-shot learning 问题,该方法通过学习新的低级特征并在元测试阶段重新组合这些特征来更加自适应地进行元学习,实验结果表明,在三个不同的分类数据集中,该方法的性能优于现有一阶 MAML算法,omniglot 数据集的分类准确率提高了约2%(20-way 1-shot task setting) .
Apr, 2023
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约1%的性能。
Mar, 2024