该论文提出了一种概率元学习算法,能够从模型分布中采样模型,并且在模型适应新任务时注入噪声来减少任务模糊性,实验结果表明,该方法可以在模糊的少样本学习问题中采样出可信的分类器和回归器,并且阐述了如何利用对模糊性的推理来解决活跃学习问题。
Jun, 2018
模型无关元学习(MAML)和其变体往往采用简单损失函数进行学习,为了更好地泛化,我们提出了一种新的元学习框架 MeTAL,其中损失函数适应于每个任务。
Oct, 2021
本文提出了一种基于元学习的新方法,通过学习一组不针对旧任务也不针对新任务的广义参数来避免深度神经网络的快速衰落问题,并在五个数据集上进行广泛实验,实现了明显的改进
Mar, 2020
本文提出了针对模型无关元学习(MAML)进行各种修改的方法,提出了 MAML++,它稳定了系统,并大大提高了 MAML 的泛化性能、收敛速度和计算开销。
Oct, 2018
本文提出了一种新型元学习模型,在每个任务中自适应平衡元学习和任务特定学习的效果,并将其制定为贝叶斯推理框架,在多个现实的任务和课程不平衡的数据集上验证了其有效性。
May, 2019
本文提出了一种模型无关的元学习算法,通过少量的训练样本,使用梯度下降算法来训练模型的参数,实现了对新学习任务的快速调整和学习,导致在少量图像分类、回归和神经网络政策优化方面表现出最先进的性能。
Mar, 2017
本文提出了一种新的元学习方法,通过解决 min-max 问题以最小化观测到的元训练任务的最大损失,可以实现任务健壮性,从而在元训练和元测试之间的任务分布变化时,都能表现出色。
Feb, 2020
本文提出了一种联合训练方法,将迁移学习和元学习相结合,从而在少分类、少样本以及多分类、多样本任务中均可获得更好的泛化性能。
Sep, 2018
本文介绍了一种增强的 MAML 框架,该框架能够在多模态任务分布中识别任务模式并通过梯度更新快速适应,从而更有效地进行元学习,同时在回归、图像分类和强化学习等多种领域中进行了实验验证。
Oct, 2019
该论文介绍了元学习在深度学习中的应用及其近期发展,涵盖度量、记忆、基于学习等方法,并探讨了当前的挑战和未来的研究方向。
Mar, 2023