该论文提出了一种概率元学习算法,能够从模型分布中采样模型,并且在模型适应新任务时注入噪声来减少任务模糊性,实验结果表明,该方法可以在模糊的少样本学习问题中采样出可信的分类器和回归器,并且阐述了如何利用对模糊性的推理来解决活跃学习问题。
Jun, 2018
本文提出了一种基于熵和不等式优化的任务不可知元学习算法,可以在避免过度适应已有任务和提高元学习器泛化性能方面有效地解决少样本学习问题,并在少量分类和强化学习任务中表现优异。
May, 2018
本文提出一种新的贝叶斯模型无关元学习方法,结合可伸缩的基于梯度的元学习和非参数变分推断,通过一个有原则的概率框架去学习复杂的不确定性结构,并且在 meta-update 时使用鲁棒的贝叶斯 meta-update 机制防止过拟合。此方法在各种任务中展现了准确性和鲁棒性。
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020
本文介绍了一种新的元学习方法 Meta Networks(MetaNet),它通过快速参数化学习跨任务的元级知识,并在新概念上进行快速泛化,同时保持了以前所学的性能表现,在 Omniglot 和 Mini-ImageNet 基准测试中,我们的 MetaNet 模型实现了接近人类水平的表现,并在准确性上优于基线方法高达 6%。我们展示了 MetaNet 的几个有吸引力的性质,如泛化和持续学习。
Mar, 2017
本文介绍了一种增强的 MAML 框架,该框架能够在多模态任务分布中识别任务模式并通过梯度更新快速适应,从而更有效地进行元学习,同时在回归、图像分类和强化学习等多种领域中进行了实验验证。
Oct, 2019
本文提出了一种基于元学习的新方法,通过学习一组不针对旧任务也不针对新任务的广义参数来避免深度神经网络的快速衰落问题,并在五个数据集上进行广泛实验,实现了明显的改进
Mar, 2020
提出了 HyperMAML,这是 Model-Agnostic Meta-Learning 的一种新型泛化方法,其训练的更新过程也是模型的一部分,通过可训练的 Hypernetwork 来更新权重,超越了 MAML 并在标准 Few-Shot 学习基准测试中表现出色。
May, 2022
本文提出了一种新的、严谨的贝叶斯元学习算法,用于学习少样本学习的模型参数先验的概率分布。该算法采用基于梯度的变分推断来推断模型参数的后验分布。我们展示了使用我们提出的元学习算法训练的模型具有良好的校准和准确性,在两个少样本分类基准测试(Omniglot 和 Mini-ImageNet)上取得了最新的校准和分类结果,并在多模式任务分布回归中获得了有竞争力的结果。
Jul, 2019
本研究提出了 Alpha MAML 扩展算法来引入一种在线超参数适应方案,以消除 MAML 训练超参数调整的需要并提高其稳定性,实验结果表明其对于 Omniglot 数据库的效果有显著的提升。
May, 2019