贝叶斯模型无关元学习
本文提出了一种新的、严谨的贝叶斯元学习算法,用于学习少样本学习的模型参数先验的概率分布。该算法采用基于梯度的变分推断来推断模型参数的后验分布。我们展示了使用我们提出的元学习算法训练的模型具有良好的校准和准确性,在两个少样本分类基准测试(Omniglot 和 Mini-ImageNet)上取得了最新的校准和分类结果,并在多模式任务分布回归中获得了有竞争力的结果。
Jul, 2019
该论文提出了一种概率元学习算法,能够从模型分布中采样模型,并且在模型适应新任务时注入噪声来减少任务模糊性,实验结果表明,该方法可以在模糊的少样本学习问题中采样出可信的分类器和回归器,并且阐述了如何利用对模糊性的推理来解决活跃学习问题。
Jun, 2018
本文提出了一种模型无关的元学习算法,通过少量的训练样本,使用梯度下降算法来训练模型的参数,实现了对新学习任务的快速调整和学习,导致在少量图像分类、回归和神经网络政策优化方面表现出最先进的性能。
Mar, 2017
本文对元学习方法中的贝叶斯 MAML 进行了理论分析,发现在元测试中,相比于模型不可知元学习和隐式 MAML,贝叶斯 MAML 可以提供更低的元测试风险。
Mar, 2022
通过元学习方法在转导式环境中学习多个任务,通过使用未标记的查询集合生成更强大的模型来解决多任务学习中的问题,并提出了一种合成梯度网络和初始化网络组成的新型变分推理方法,优于以前的方法,并进一步探索了合成梯度的潜力。
Apr, 2020
本文提出了一种名为 BayesianHyperShot 的新方法,它是对 Bayesian MAML 的创新性推广。将贝叶斯原则与超网络结合使用,可更好地收敛于经典学习评估,并通过贝叶斯方法提高了适用性,并使用超网络实现高灵活性的任务自适应。
Oct, 2022
本文介绍了一种名为 MetaQDA 的贝叶斯元学习模型,其特点是在元学习分类器层面上实现 few-shot 学习。实验表明,这种方法在跨领域 few-shot 学习中具有鲁棒的性能,并能更好地预测不确定性。
Jan, 2021
提出了一种新颖的连续元学习方法,使用贝叶斯图神经网络 (CML-BGNN) 将元学习数学公式化为一系列任务的连续学习,在图形上保留任务内部和任务之间的相关性,利用 Amortized inference networks 解决了图形初始化的拓扑不确定性,提高了 minImageNet 5-way 1-shot 分类任务的分类性能。
Nov, 2019
本文探讨了如何使用 Bayesian 模型和梯度下降进行 meta-learning,通过 MAML 算法应用到复杂的函数逼近器上,进一步提升了算法的性能,并利用近似推断和曲率估计技术提出了改进措施。
Jan, 2018
本文提出了一种基于熵和不等式优化的任务不可知元学习算法,可以在避免过度适应已有任务和提高元学习器泛化性能方面有效地解决少样本学习问题,并在少量分类和强化学习任务中表现优异。
May, 2018