本文提出了针对模型无关元学习(MAML)进行各种修改的方法,提出了 MAML++,它稳定了系统,并大大提高了 MAML 的泛化性能、收敛速度和计算开销。
Oct, 2018
提出了 HyperMAML,这是 Model-Agnostic Meta-Learning 的一种新型泛化方法,其训练的更新过程也是模型的一部分,通过可训练的 Hypernetwork 来更新权重,超越了 MAML 并在标准 Few-Shot 学习基准测试中表现出色。
May, 2022
提出了一种基于元学习的小样本学习框架,通过在元模型更新阶段引入鲁棒性正则化来提高模型的对抗鲁棒性,在此基础上,提出了一个通用的鲁棒性正则化的元学习框架,可以使用不带标签的数据增强和对抗性攻击技术来实现有效的鲁棒性训练。此外,引入辅助对比学习任务进一步提高了模型的鲁棒性。
Feb, 2021
本文提出了一种自适应的方法 (ALFA),在元学习 (MAML) 的框架下增强了快速适应过程,使用该方法可以从随机初始化中实现快速适应,且超越了 MAML 的表现,同时实验结果证明了超参数的自适应学习是近期少样本学习方法中同样重要的组成部分。
Oct, 2020
本文提出了对 MAML 工作机制的新视角,将其类比为使用有监督对比目标的元学习器,并提出 zeroing trick 技术来缓解其干扰项,实验证明该技术提升了 MAML 在任务特定学习中的性能。
Jun, 2021
在 Few-shot classification 这个问题上,我们探究了如何训练 MAML 表现得更美好,发现 MAML 需要大量的梯度步骤才能适应少样本分类,敏感于试验时分类标签的赋值,本文提供了多种方法解决其排列不变性。我们命名为 UNICORN-MAML 的方法在 MiniImageNet 和 TieriImageNet 等基准数据集上表现良好,并与许多最新的少样本分类算法不相上下,而不损失 MAML 的简单性。
本文介绍了一种增强的 MAML 框架,该框架能够在多模态任务分布中识别任务模式并通过梯度更新快速适应,从而更有效地进行元学习,同时在回归、图像分类和强化学习等多种领域中进行了实验验证。
Oct, 2019
模型无关元学习(MAML)和其变体往往采用简单损失函数进行学习,为了更好地泛化,我们提出了一种新的元学习框架 MeTAL,其中损失函数适应于每个任务。
Oct, 2021
本文提出了一种基于多模态任务分布的 adaptative meta-learning 算法,并采用该算法来识别各种从多模态分布中采样的任务,以更快速地实现适应。结果表明该算法对于计算机视觉、强化学习和回归等多种任务领域都具有普适性。
Dec, 2018
本文提出了一种基于熵和不等式优化的任务不可知元学习算法,可以在避免过度适应已有任务和提高元学习器泛化性能方面有效地解决少样本学习问题,并在少量分类和强化学习任务中表现优异。
May, 2018