概率模型无关元学习
本文提出了一种新的、严谨的贝叶斯元学习算法,用于学习少样本学习的模型参数先验的概率分布。该算法采用基于梯度的变分推断来推断模型参数的后验分布。我们展示了使用我们提出的元学习算法训练的模型具有良好的校准和准确性,在两个少样本分类基准测试(Omniglot 和 Mini-ImageNet)上取得了最新的校准和分类结果,并在多模式任务分布回归中获得了有竞争力的结果。
Jul, 2019
本文提出一种新的贝叶斯模型无关元学习方法,结合可伸缩的基于梯度的元学习和非参数变分推断,通过一个有原则的概率框架去学习复杂的不确定性结构,并且在 meta-update 时使用鲁棒的贝叶斯 meta-update 机制防止过拟合。此方法在各种任务中展现了准确性和鲁棒性。
Jun, 2018
本文提出了一种基于熵和不等式优化的任务不可知元学习算法,可以在避免过度适应已有任务和提高元学习器泛化性能方面有效地解决少样本学习问题,并在少量分类和强化学习任务中表现优异。
May, 2018
本文提出了一种模型无关的元学习算法,通过少量的训练样本,使用梯度下降算法来训练模型的参数,实现了对新学习任务的快速调整和学习,导致在少量图像分类、回归和神经网络政策优化方面表现出最先进的性能。
Mar, 2017
本文提出了一种基于多模态任务分布的 adaptative meta-learning 算法,并采用该算法来识别各种从多模态分布中采样的任务,以更快速地实现适应。结果表明该算法对于计算机视觉、强化学习和回归等多种任务领域都具有普适性。
Dec, 2018
本文介绍了一种增强的 MAML 框架,该框架能够在多模态任务分布中识别任务模式并通过梯度更新快速适应,从而更有效地进行元学习,同时在回归、图像分类和强化学习等多种领域中进行了实验验证。
Oct, 2019
通过引入一种新颖的 “伪元任务” 分割方案,将连续时间序列作为伪元任务,使我们的方法从数据中提取更全面的特征和关系,从而实现更准确的预测。此外,我们引入了一种差分算法来增强我们的方法在不同数据集上的鲁棒性。通过对几个故障和时间序列预测数据集进行广泛实验,我们证明了我们的方法在少样本和一般条件下显著提高了预测性能和泛化能力。
Nov, 2023
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019